JP6992099B2 - 情報処理装置、車両、車両の制御方法、プログラム、情報処理サーバ、情報処理方法 - Google Patents
情報処理装置、車両、車両の制御方法、プログラム、情報処理サーバ、情報処理方法 Download PDFInfo
- Publication number
- JP6992099B2 JP6992099B2 JP2020005391A JP2020005391A JP6992099B2 JP 6992099 B2 JP6992099 B2 JP 6992099B2 JP 2020005391 A JP2020005391 A JP 2020005391A JP 2020005391 A JP2020005391 A JP 2020005391A JP 6992099 B2 JP6992099 B2 JP 6992099B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- processing
- information processing
- predetermined image
- actual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 59
- 230000010365 information processing Effects 0.000 title claims description 33
- 238000003672 processing method Methods 0.000 title claims description 4
- 238000012545 processing Methods 0.000 claims description 226
- 238000012549 training Methods 0.000 claims description 19
- 230000006870 function Effects 0.000 claims description 18
- 238000003384 imaging method Methods 0.000 claims description 7
- 238000006243 chemical reaction Methods 0.000 description 61
- 230000008569 process Effects 0.000 description 50
- 238000013528 artificial neural network Methods 0.000 description 34
- 210000002569 neuron Anatomy 0.000 description 10
- 238000004891 communication Methods 0.000 description 8
- 230000008859 change Effects 0.000 description 6
- 238000013527 convolutional neural network Methods 0.000 description 5
- 238000001514 detection method Methods 0.000 description 4
- 238000004590 computer program Methods 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- HBBGRARXTFLTSG-UHFFFAOYSA-N Lithium ion Chemical compound [Li+] HBBGRARXTFLTSG-UHFFFAOYSA-N 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 229910001416 lithium ion Inorganic materials 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0088—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/001—Texturing; Colouring; Generation of texture or colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Aviation & Aerospace Engineering (AREA)
- Automation & Control Theory (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Electromagnetism (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Business, Economics & Management (AREA)
- Game Theory and Decision Science (AREA)
- Medical Informatics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Description
撮像手段によって撮像された実画像に所定の画像処理を施す処理手段と、
前記所定の画像処理の施された画像を用いて、前記撮像された画像内の物標を認識する認識手段と、を有し、
前記処理手段は、前記実画像の階調に、同一のシーンを表すコンピュータグラフィックスで表されたCG画像の階調との差を低減させる前記所定の画像処理を施す、ことを特徴とする情報処理装置が提供される。
以下、添付図面を参照して実施形態を詳しく説明する。尚、以下の実施形態は特許請求の範囲に係る発明を限定するものでするものでなく、また実施形態で説明されている特徴の組み合わせの全てが発明に必須のものとは限らない。実施形態で説明されている複数の特徴うち二つ以上の特徴が任意に組み合わされてもよい。また、同一若しくは同様の構成には同一の参照番号を付し、重複した説明は省略する。また、以下の例では、制御部200が車両100に組み込まれている制御手段である場合を例に説明するが、制御部200は車両100に搭載された情報処理装置であってよい。すなわち、車両100は、制御部200に含まれるCPU210やCG化処理部213などの構成を備える情報処理装置を搭載した車両であってもよい。
まず、図1を参照して、本実施形態に係る車両100の機能構成例について説明する。なお、以降の図を参照して説明する機能ブロックの各々は、統合されまたは分離されてもよく、また説明する機能が別のブロックで実現されてもよい。また、ハードウェアとして説明するものがソフトウェアで実現されてもよく、その逆であってもよい。
次に、図2を参照して、車両100の走行制御のための主な構成について説明する。センサ部101が、例えば車両100の前方を撮影し、撮影した実画像を毎秒所定の枚数で出力する。制御部200のCG化処理部213は、センサ部101から出力された実画像に後述するCG化処理を適用して、CG化した画像を制御部200のモデル処理部214に出力する。CG化処理部213を通過した実画像は、CG画像に類似の特性を有するように、画像信号の特性が変換される。
次に、図3を参照して、物体認識処理に係るCG化処理部とモデル処理部のニューラルネットワークの構成例について説明する。図3は、CG化処理部213とモデル処理部214のそれぞれが実施するニューラルネットワークの構成例を模式的に示している。
次に、図5を参照して、CG化処理部とモデル処理部における学習段階における一連の動作について説明する。なお、本処理は、制御部200のCPU210がROM212に記憶されたプログラムをRAM211に展開、実行することにより実現される。また、本処理は、予めCG化処理部213のニューラルネットワークが学習済みの状態(すなわちニューロン間の重み付けが決定されている)であるものとする。他方、モデル処理部214のニューラルネットワークは学習済みでなく、本処理により学習済みの状態となる。また、車両100の記憶部107には、外部装置から転送された学習データが一時的に記憶されており、制御部200は、当該学習データのうちの所定の学習データを本処理における学習に用いるものとする。
次に、図6を参照して、CG化処理部213における学習段階における一連の動作について説明する。なお、本処理は、制御部200のCPU211がROM212に記憶されたプログラムをRAM211に展開、実行することにより実現される。また、本処理では、CG化処理部213のニューラルネットワークは学習済みではなく、本処理により学習済みの状態となる。また、車両100の記憶部107には、外部装置から転送されたCG化用学習データが一時的に記憶されており、制御部200は、当該CG化用学習データのうちの所定の学習データを本処理における学習に用いるものとする。
次に、図7を参照して、モデル処理部124における推定段階の一連の動作について説明する。本処理は、車両100において、実際に撮影された実画像に対して、物体認識処理を行って、対象物体の種類や物体の位置等を推定する処理である。なお、本処理は、制御部200のCPU211がROM212に記憶されたプログラムをRAM211に展開、実行することにより実現される。また、本処理は、予めCG化処理部213のニューラルネットワークとモデル処理部214のニューラルネットワークとが、学習済みの状態(すなわちニューロン間の重み付けが決定されている)である。
次に、本発明の実施形態2について説明する。上述の実施形態では、ニューラルネットワークを用いて実装されたCG化処理部213を用いて、CG化処理を行った。これに対し、本実施形態では、ルールベースによるCG化処理を実行する例について説明する。従って、本実施形態は、上述の実施形態1とはCG化処理部の内部構成のみが異なる。従って、上述の実施形態と実質的に同一である構成については同一の参照番号を付してその説明は省略する。
図8を参照して、本実施形態に係るCG化処理部とモデル処理部の構成例について説明する。なお、図8では、モデル処理部214は実施形態1と同様であるため、同一の符号を付して同一の構成を示している。一方、CG化処理部801は、ルールベースの処理により実現される。
上述のCG化処理部801の構成において、制御部200は、図5及び図7に示した学習段階での画像認識処理(S501~S507)及び推定段階での画像認識処理(S701~S703)を、実施形態1と同様に行うことができる。
上述の実施形態では、車両100において画像認識処理を実行する場合を例に説明した。しかし、本実施形態は、画像認識を車両において実行する場合に限らず、情報処理サーバにおいて実行する場合にも適用可能である。すなわち、車両100において取得された実画像を情報処理サーバが受信して、受信した実画像に対して画像認識処理を実行し、その認識結果を車両100の送信するようにしてもよい。以下、このような実施形態における情報処理サーバの機能構成例について説明する。
次に、情報処理サーバの機能構成例について、図10を参照して説明する。なお、以降の図を参照して説明する機能ブロックの各々は、統合されまたは分離されてもよく、また説明する機能が別のブロックで実現されてもよい。また、ハードウェアとして説明するものがソフトウェアで実現されてもよく、その逆であってもよい。
なお、上述の実施形態では、制御部200或いは制御部1004がCG画像及び実画像を用いて学習したうえで、実画像を用いて物体認識処理を実行する場合を例に説明した。しかし、上述の実施形態は、画像認識処理に係る他の処理を実施する場合にも適用可能である。すなわち、本実施形態は、例えば、走路認識、シーン理解、交通参加者行動予測などの画像に基づく認識処理にも適用することができる。例えば、モデル処理部1014がシーン理解のために上述の処理を行ってもよい。
1.上記実施形態の情報処理装置(例えば、車両100に含まれる情報処理装置)は、
撮像手段によって撮像された実画像に所定の画像処理を施す処理手段(例えば、213)と、
所定の画像処理の施された画像を用いて、撮像された画像内の物標を認識する認識手段(例えば、214)と、を有し、
処理手段は、実画像の階調に、同一のシーンを表すコンピュータグラフィックスで表されたCG画像の階調との差を低減させる所定の画像処理を施す。
認識手段は第1の学習モデル(例えば、320、321、322、323)を含み、
第1の学習モデルを学習させるための学習データは、実画像とCG画像とを含む。
処理手段は、更に学習データに所定の画像処理を施すことが可能であり、
処理手段は、所定の画像処理を施そうとする画像がCG画像であると判定した場合には、該画像に所定の画像処理を施さない。
認識手段は、更に、所定の画像処理が施されていないCG画像を用いて、CG画像内の物標を認識する。
処理手段は、画像におけるエッジ成分を保持しながら、ランダムノイズを除去する特性を有する所定の画像処理を施す(例えば、S502)。
処理手段は、εフィルタを用いて所定の画像処理を施す(例えば、S502)。
処理手段は、第2の学習モデルによって所定の画像処理を施すように構成され、第2の学習モデルは、実画像と、当該実画像をCG化した正解データとの組み合わせを学習データとして用いて学習される。
処理手段は、実画像に特定の物標が存在する場合、特定の物標の領域と他の領域とに対する所定の画像処理を異ならせる。
Claims (13)
- 撮像手段によって撮像された実画像に所定の画像処理を施す処理手段と、
前記所定の画像処理の施された画像を用いて、前記撮像された画像内の物標を認識する認識手段と、を有し、
前記処理手段は、前記実画像の階調に、同一のシーンを表すコンピュータグラフィックスで表されたCG画像の階調との差を低減させる前記所定の画像処理を施す、ことを特徴とする情報処理装置。 - 前記認識手段は第1の学習モデルを含み、
前記第1の学習モデルを学習させるための学習データは、前記実画像と前記CG画像とを含む、ことを特徴とする請求項1に記載の情報処理装置。 - 前記処理手段は、更に前記学習データに前記所定の画像処理を施すことが可能であり、
前記処理手段は、前記所定の画像処理を施そうとする画像が前記CG画像であると判定した場合には、該画像に前記所定の画像処理を施さない、ことを特徴とする請求項2に記載の情報処理装置。 - 前記認識手段は、更に、前記所定の画像処理が施されていない前記CG画像を用いて、前記CG画像内の物標を認識する、ことを特徴とする請求項3に記載の情報処理装置。
- 前記処理手段は、前記画像におけるエッジ成分を保持しながら、ランダムノイズを除去する特性を有する前記所定の画像処理を施す、ことを特徴とする請求項1から4のいずれか1項に記載の情報処理装置。
- 前記処理手段は、εフィルタを用いて前記所定の画像処理を施す、ことを特徴とする請求項1から5のいずれか1項に記載の情報処理装置。
- 前記処理手段は、第2の学習モデルによって前記所定の画像処理を施すように構成され、前記第2の学習モデルは、前記実画像と、当該実画像をCG化した正解データとの組み合わせを学習データとして用いて学習される、ことを特徴とする請求項1から6のいずれか1項に記載の情報処理装置。
- 前記処理手段は、前記実画像に特定の物標が存在する場合、前記特定の物標の領域と他の領域とに対する前記所定の画像処理を異ならせる、ことを特徴とする請求項1から7のいずれか1項に記載の情報処理装置。
- 請求項1から8のいずれか1項に記載の情報処理装置を備える、ことを特徴とする車両。
- 情報処理装置の制御方法であって、
撮像手段によって撮像された実画像に所定の画像処理を施す処理工程と、
前記所定の画像処理の施された画像を用いて、前記撮像された画像内の物標を認識する認識工程と、を有し、
前記処理工程では、前記実画像の階調に、同一のシーンを表すコンピュータグラフィックスで表されたCG画像の階調との差を低減させる前記所定の画像処理を施す、ことを特徴とする情報処理装置の制御方法。 - コンピュータを、請求項1から8のいずれか1項に記載の情報処理装置の各手段として機能させるためのプログラム。
- 情報処理サーバであって、
撮像手段によって撮像された実画像に所定の画像処理を施す処理手段と、
前記所定の画像処理の施された画像を用いて、前記撮像された画像内の物標を認識する認識手段と、を有し、
前記処理手段は、前記実画像の階調に、同一のシーンを表すコンピュータグラフィックスで表されたCG画像の階調との差を低減させる前記所定の画像処理を施す、ことを特徴とする情報処理サーバ。 - 情報処理サーバによって実行される情報処理方法であって、
撮像手段によって撮像された実画像に所定の画像処理を施す処理工程と、
前記所定の画像処理の施された画像を用いて、前記撮像された画像内の物標を認識する認識工程と、を有し、
前記処理工程では、前記実画像の階調に、同一のシーンを表すコンピュータグラフィックスで表されたCG画像の階調との差を低減させる前記所定の画像処理を施す、ことを特徴とする情報処理方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020005391A JP6992099B2 (ja) | 2020-01-16 | 2020-01-16 | 情報処理装置、車両、車両の制御方法、プログラム、情報処理サーバ、情報処理方法 |
CN202011589363.5A CN113139567A (zh) | 2020-01-16 | 2020-12-29 | 信息处理装置及其控制方法、车辆、记录介质、信息处理服务器、信息处理方法 |
US17/143,521 US11860627B2 (en) | 2020-01-16 | 2021-01-07 | Image processing apparatus, vehicle, control method for information processing apparatus, storage medium, information processing server, and information processing method for recognizing a target within a captured image |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020005391A JP6992099B2 (ja) | 2020-01-16 | 2020-01-16 | 情報処理装置、車両、車両の制御方法、プログラム、情報処理サーバ、情報処理方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021114048A JP2021114048A (ja) | 2021-08-05 |
JP6992099B2 true JP6992099B2 (ja) | 2022-01-13 |
Family
ID=76809816
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020005391A Active JP6992099B2 (ja) | 2020-01-16 | 2020-01-16 | 情報処理装置、車両、車両の制御方法、プログラム、情報処理サーバ、情報処理方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11860627B2 (ja) |
JP (1) | JP6992099B2 (ja) |
CN (1) | CN113139567A (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102159052B1 (ko) * | 2020-05-12 | 2020-09-23 | 주식회사 폴라리스쓰리디 | 영상 분류 방법 및 장치 |
WO2024069886A1 (ja) * | 2022-09-29 | 2024-04-04 | 株式会社ニコン | 演算装置、演算システム、ロボットシステム、演算方法及びコンピュータプログラム |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014137756A (ja) | 2013-01-17 | 2014-07-28 | Canon Inc | 画像処理装置および画像処理方法 |
JP2014229115A (ja) | 2013-05-23 | 2014-12-08 | キヤノン株式会社 | 情報処理装置および方法、プログラム、記憶媒体 |
JP2018060512A (ja) | 2016-10-06 | 2018-04-12 | 株式会社アドバンスド・データ・コントロールズ | 画像生成システム、プログラム及び方法並びにシミュレーションシステム、プログラム及び方法 |
JP2018163444A (ja) | 2017-03-24 | 2018-10-18 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
WO2018198233A1 (ja) | 2017-04-26 | 2018-11-01 | 株式会社ソニー・インタラクティブエンタテインメント | 学習装置、画像認識装置、学習方法及びプログラム |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4152340B2 (ja) * | 2004-03-26 | 2008-09-17 | 富士フイルム株式会社 | 画像処理システムおよびその方法 |
JP2005332054A (ja) * | 2004-05-18 | 2005-12-02 | Konica Minolta Photo Imaging Inc | 画像処理方法、画像処理装置、画像記録装置及び画像処理プログラム |
JP6316074B2 (ja) * | 2013-10-22 | 2018-04-25 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びプログラム |
CN107851195B (zh) * | 2015-07-29 | 2022-02-11 | 诺基亚技术有限公司 | 利用神经网络进行目标检测 |
-
2020
- 2020-01-16 JP JP2020005391A patent/JP6992099B2/ja active Active
- 2020-12-29 CN CN202011589363.5A patent/CN113139567A/zh active Pending
-
2021
- 2021-01-07 US US17/143,521 patent/US11860627B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014137756A (ja) | 2013-01-17 | 2014-07-28 | Canon Inc | 画像処理装置および画像処理方法 |
JP2014229115A (ja) | 2013-05-23 | 2014-12-08 | キヤノン株式会社 | 情報処理装置および方法、プログラム、記憶媒体 |
JP2018060512A (ja) | 2016-10-06 | 2018-04-12 | 株式会社アドバンスド・データ・コントロールズ | 画像生成システム、プログラム及び方法並びにシミュレーションシステム、プログラム及び方法 |
JP2018163444A (ja) | 2017-03-24 | 2018-10-18 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
WO2018198233A1 (ja) | 2017-04-26 | 2018-11-01 | 株式会社ソニー・インタラクティブエンタテインメント | 学習装置、画像認識装置、学習方法及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
JP2021114048A (ja) | 2021-08-05 |
US20210224554A1 (en) | 2021-07-22 |
CN113139567A (zh) | 2021-07-20 |
US11860627B2 (en) | 2024-01-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2019230339A1 (ja) | 物体識別装置、移動体用システム、物体識別方法、物体識別モデルの学習方法及び物体識別モデルの学習装置 | |
US11940803B2 (en) | Method, apparatus and computer storage medium for training trajectory planning model | |
US11783593B2 (en) | Monocular depth supervision from 3D bounding boxes | |
JP6798860B2 (ja) | 境界線推定装置 | |
KR20210025942A (ko) | 종단간 컨볼루셔널 뉴럴 네트워크를 이용한 스테레오 매칭 방법 | |
WO2018168539A1 (ja) | 学習方法およびプログラム | |
CN111696196B (zh) | 一种三维人脸模型重建方法及装置 | |
JP6992099B2 (ja) | 情報処理装置、車両、車両の制御方法、プログラム、情報処理サーバ、情報処理方法 | |
US11727588B2 (en) | Depth estimation based on ego-motion estimation and residual flow estimation | |
US11847837B2 (en) | Image-based lane detection and ego-lane recognition method and apparatus | |
CN114418030A (zh) | 图像分类方法、图像分类模型的训练方法及装置 | |
US20230326055A1 (en) | System and method for self-supervised monocular ground-plane extraction | |
US11062141B2 (en) | Methods and apparatuses for future trajectory forecast | |
CN113496194B (zh) | 信息处理装置、信息处理方法、车辆、信息处理服务器和记录介质 | |
US20230033466A1 (en) | Information processing method and storage medium for estimating camera pose using machine learning model | |
CN111144361A (zh) | 一种基于二值化cgan网络的公路车道检测方法 | |
US11915487B2 (en) | System and method for self-supervised depth and ego-motion overfitting | |
JP7158515B2 (ja) | 学習装置、学習方法及びプログラム | |
JP7501481B2 (ja) | 距離推定装置、距離推定方法、および距離推定用コンピュータプログラム | |
US20220351399A1 (en) | Apparatus and method for generating depth map using monocular image | |
US20230230395A1 (en) | Method of detecting at least one traffic lane marking and/or road marking in at least one digital image representation | |
KR102538225B1 (ko) | 센서 퓨전 기반의 시맨틱 세그멘테이션 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램 | |
US20230401733A1 (en) | Method for training autoencoder, electronic device, and storage medium | |
US20210407115A1 (en) | System and method for self-supervised monocular depth regularization from surface normals |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200929 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20210103 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210125 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211112 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211208 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6992099 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |