JP2020509466A - 完全な畳み込みアーキテクチャを使用する運転者の視覚的注意のための計算フレームワークのシステム及び方法 - Google Patents
完全な畳み込みアーキテクチャを使用する運転者の視覚的注意のための計算フレームワークのシステム及び方法 Download PDFInfo
- Publication number
- JP2020509466A JP2020509466A JP2019541277A JP2019541277A JP2020509466A JP 2020509466 A JP2020509466 A JP 2020509466A JP 2019541277 A JP2019541277 A JP 2019541277A JP 2019541277 A JP2019541277 A JP 2019541277A JP 2020509466 A JP2020509466 A JP 2020509466A
- Authority
- JP
- Japan
- Prior art keywords
- saliency
- objects
- driver
- visual
- driving scene
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 41
- 230000000007 visual effect Effects 0.000 title claims abstract description 30
- 230000015654 memory Effects 0.000 claims abstract description 25
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 15
- 230000008569 process Effects 0.000 claims abstract description 10
- 238000004590 computer program Methods 0.000 claims description 11
- 230000001419 dependent effect Effects 0.000 claims description 4
- 238000010586 diagram Methods 0.000 abstract description 3
- 238000004891 communication Methods 0.000 description 32
- 238000009826 distribution Methods 0.000 description 11
- 230000006399 behavior Effects 0.000 description 10
- 238000012360 testing method Methods 0.000 description 8
- 238000012549 training Methods 0.000 description 8
- 230000000694 effects Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 238000013459 approach Methods 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 4
- 230000003278 mimic effect Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000004397 blinking Effects 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000004424 eye movement Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000005094 computer simulation Methods 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 230000001143 conditioned effect Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000004800 psychological effect Effects 0.000 description 1
- 238000004445 quantitative analysis Methods 0.000 description 1
- 230000004434 saccadic eye movement Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0088—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2134—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on separation criteria, e.g. independent component analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
- G06F18/24155—Bayesian classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
- G06V20/597—Recognising the driver's state or behaviour, e.g. attention or drowsiness
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Molecular Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Ophthalmology & Optometry (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Biodiversity & Conservation Biology (AREA)
- Biomedical Technology (AREA)
- Business, Economics & Management (AREA)
- Game Theory and Decision Science (AREA)
- Medical Informatics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Probability & Statistics with Applications (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
本開示は、2017年2月6日に出願された仮出願第62/455,328号に対する優先権を主張する、2017年5月30日に出願された米国特許出願第15/608,523号に対する優先権を主張するものであり、各出願の内容の全体が、本明細書に組み込まれる。
本明細書における主題は、運転シーンにおける顕著性を推定するための方法及びシステムに関する。
Claims (20)
- 運転シーンの1つ以上の対象の顕著性を推定するための自動運転(AD)システムであって、
前記運転シーンの前記1つ以上の対象の前記顕著性を推定するためのプロセスを実行するための命令を記憶するメモリと、
前記命令を実行するように構成されたプロセッサであって、前記プロセスが、
運転者の視覚的注意をモデル化するために、ベイズフレームワークを生成することであって、前記ベイズフレームワークが、ボトムアップ顕著性要素及びトップダウン顕著性要素を含む、生成することと、
前記運転シーン内の前記1つ以上の対象の視覚的顕著性モデルを生成するために、前記ベイズフレームワークに基づいて、完全な畳み込みニューラルネットワークを生成することと、
前記運転者の注意を引き付ける特徴を示すために、前記視覚的顕著性モデルを出力することと、を含む、プロセッサと、を備える、ADシステム。 - 前記ボトムアップ顕著性要素が、対象非依存性であり、
前記トップダウン顕著性要素が、対象依存性である、請求項1に記載のADシステム。 - 前記トップダウン顕著性要素が、重要な対象が顕著であることを示す第1の構成要素と、対象の予想された位置の知識を示す第2の構成要素と、を含む、請求項2に記載のADシステム。
- 前記対象の前記予想された位置が、ヨーレートに基づいており、前記ヨーレートの大きさが増加するにつれて、前記対象の前記予想された位置が、中心視野から離れてシフトする、請求項3に記載のADシステム。
- 前記プロセスが、学習された事前分布に基づいて推定された重みを用いて、前記運転シーンの1つ以上の顕著な領域を調整することを更に含む、請求項1に記載のADシステム。
- 前記重みが、前記1つ以上の対象のタスクに基づく、請求項5に記載のADシステム。
- 前記完全な畳み込みニューラルネットワークが、前記1つ以上の対象の周囲の特徴に関連して前記1つ以上の対象を分析することを可能にするように構成された1つ以上のスキップ接続を含む、請求項1に記載のADシステム。
- 運転シーンの1つ以上の対象の顕著性を推定するための方法であって、
運転者の視覚的注意をモデル化するために、ベイズフレームワークを生成することであって、前記ベイズフレームワークが、ボトムアップ顕著性要素及びトップダウン顕著性要素を含む、生成することと、
前記運転シーン内の前記1つ以上の対象の視覚的顕著性モデルを生成ために、前記ベイズフレームワークに基づいて、完全な畳み込みニューラルネットワークを生成することと、
前記運転者の注意を引き付ける特徴を示すために、前記視覚的顕著性モデルを出力することと、を含む、方法。 - 前記ボトムアップ顕著性要素が、対象非依存性であり、
前記トップダウン顕著性要素が、対象依存性である、請求項8に記載の方法。 - 前記トップダウン顕著性要素が、重要な対象が顕著であることを示す第1の構成要素と、対象の予想された位置を示す第2の構成要素と、を含み、前記予想された位置が、以前の運転者体験に基づく、請求項9に記載の方法。
- 前記対象の前記予想された位置が、ヨーレートに基づく、請求項10に記載の方法。
- 学習された事前分布に基づいて推定された重みを用いて、前記運転シーンの1つ以上の顕著な領域を調整することを更に含む、請求項8に記載の方法。
- 前記重みが、前記1つ以上の対象のタスクに基づく、請求項12に記載の方法。
- 前記完全な畳み込みニューラルネットワークの1つ以上のスキップ接続に基づいて、前記1つ以上の対象の周囲の特徴に関連して前記1つ以上の対象を分析することを更に含む、請求項8に記載の方法。
- 実行可能なコンピュータプログラムコードを含む非一時的コンピュータ可読記憶媒体であって、前記コードが、
運転者の視覚的注意をモデル化するために、ベイズフレームワークを生成することであって、前記ベイズフレームワークが、ボトムアップ顕著性要素及びトップダウン顕著性要素を含む、生成することと、
前記運転シーン内の前記1つ以上の対象の視覚的顕著性モデルを生成するために、前記ベイズフレームワークに基づいて、完全な畳み込みニューラルネットワークを生成することと、
前記運転者の注意を引き付ける特徴を示すために、前記視覚的顕著性モデルを出力することと、を行うように構成された命令を含む、非一時的コンピュータ可読記憶媒体。 - 前記ボトムアップ顕著性要素が、対象非依存性であり、
前記トップダウン顕著性要素が、対象依存性である、請求項15に記載の非一時的コンピュータ可読記憶媒体。 - 前記トップダウン顕著性要素が、重要な対象が顕著であることを示す第1の構成要素と、対象の予想された位置を示す第2の構成要素と、を含み、前記予想された位置が、以前の運転者体験に基づく、請求項15に記載の非一時的コンピュータ可読記憶媒体。
- 前記対象の前記予想された位置が、ヨーレートに基づく、請求項17に記載の非一時的コンピュータ可読記憶媒体。
- 前記コードが、学習された事前分布に基づいて推定された重みを用いて、前記運転シーンの1つ以上の顕著な領域を調整するように更に構成された命令を含む、請求項15に記載の非一時的コンピュータ可読記憶媒体。
- 前記重みが、前記1つ以上の対象のタスクに基づく、請求項12に記載の非一時的コンピュータ可読記憶媒体。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201762455328P | 2017-02-06 | 2017-02-06 | |
US62/455,328 | 2017-02-06 | ||
US15/608,523 | 2017-05-30 | ||
US15/608,523 US20180225554A1 (en) | 2017-02-06 | 2017-05-30 | Systems and methods of a computational framework for a driver's visual attention using a fully convolutional architecture |
PCT/US2018/016903 WO2018145028A1 (en) | 2017-02-06 | 2018-02-05 | Systems and methods of a computational framework for a driver's visual attention using a fully convolutional architecture |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020509466A true JP2020509466A (ja) | 2020-03-26 |
Family
ID=63037815
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019541277A Pending JP2020509466A (ja) | 2017-02-06 | 2018-02-05 | 完全な畳み込みアーキテクチャを使用する運転者の視覚的注意のための計算フレームワークのシステム及び方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20180225554A1 (ja) |
JP (1) | JP2020509466A (ja) |
CN (1) | CN110291499A (ja) |
DE (1) | DE112018000335T5 (ja) |
WO (1) | WO2018145028A1 (ja) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7149692B2 (ja) * | 2017-08-09 | 2022-10-07 | キヤノン株式会社 | 画像処理装置、画像処理方法 |
US11042994B2 (en) * | 2017-11-15 | 2021-06-22 | Toyota Research Institute, Inc. | Systems and methods for gaze tracking from arbitrary viewpoints |
US10282864B1 (en) * | 2018-09-17 | 2019-05-07 | StradVision, Inc. | Method and device for encoding image and testing method and testing device using the same |
JP7263734B2 (ja) * | 2018-10-29 | 2023-04-25 | 株式会社アイシン | 視認対象判定装置 |
GB2580671B (en) * | 2019-01-22 | 2022-05-04 | Toshiba Kk | A computer vision system and method |
CN109886269A (zh) * | 2019-02-27 | 2019-06-14 | 南京中设航空科技发展有限公司 | 一种基于注意力机制的交通广告牌识别方法 |
US11574494B2 (en) | 2020-01-27 | 2023-02-07 | Ford Global Technologies, Llc | Training a neural network to determine pedestrians |
JP7331728B2 (ja) | 2020-02-19 | 2023-08-23 | マツダ株式会社 | 運転者状態推定装置 |
JP7331729B2 (ja) | 2020-02-19 | 2023-08-23 | マツダ株式会社 | 運転者状態推定装置 |
US11458987B2 (en) * | 2020-02-26 | 2022-10-04 | Honda Motor Co., Ltd. | Driver-centric risk assessment: risk object identification via causal inference with intent-aware driving models |
WO2021181861A1 (ja) * | 2020-03-10 | 2021-09-16 | パイオニア株式会社 | 地図データ生成装置 |
US11604946B2 (en) | 2020-05-06 | 2023-03-14 | Ford Global Technologies, Llc | Visual behavior guided object detection |
US11546427B2 (en) | 2020-08-21 | 2023-01-03 | Geotab Inc. | Method and system for collecting manufacturer-specific controller-area network data |
US11212135B1 (en) * | 2020-08-21 | 2021-12-28 | Geotab Inc. | System for identifying manufacturer-specific controller-area network data |
US11582060B2 (en) | 2020-08-21 | 2023-02-14 | Geotab Inc. | Telematics system for identifying manufacturer-specific controller-area network data |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2256667A1 (en) * | 2009-05-28 | 2010-12-01 | Honda Research Institute Europe GmbH | Driver assistance system or robot with dynamic attention module |
JP2012079117A (ja) * | 2010-10-01 | 2012-04-19 | Toyota Motor Corp | 車両の物体認識システム |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7444383B2 (en) * | 2000-06-17 | 2008-10-28 | Microsoft Corporation | Bounded-deferral policies for guiding the timing of alerting, interaction and communications using local sensory information |
JP4396430B2 (ja) * | 2003-11-25 | 2010-01-13 | セイコーエプソン株式会社 | 視線誘導情報生成システムおよび視線誘導情報生成プログラム、並びに視線誘導情報生成方法 |
JP4277081B2 (ja) * | 2004-03-17 | 2009-06-10 | 株式会社デンソー | 運転支援装置 |
US8363939B1 (en) * | 2006-10-06 | 2013-01-29 | Hrl Laboratories, Llc | Visual attention and segmentation system |
WO2011152893A1 (en) * | 2010-02-10 | 2011-12-08 | California Institute Of Technology | Methods and systems for generating saliency models through linear and/or nonlinear integration |
CN101980248B (zh) * | 2010-11-09 | 2012-12-05 | 西安电子科技大学 | 基于改进视觉注意力模型的自然场景目标检测方法 |
US20140254922A1 (en) * | 2013-03-11 | 2014-09-11 | Microsoft Corporation | Salient Object Detection in Images via Saliency |
US9499197B2 (en) * | 2014-10-15 | 2016-11-22 | Hua-Chuang Automobile Information Technical Center Co., Ltd. | System and method for vehicle steering control |
US9747812B2 (en) * | 2014-10-22 | 2017-08-29 | Honda Motor Co., Ltd. | Saliency based awareness modeling |
-
2017
- 2017-05-30 US US15/608,523 patent/US20180225554A1/en not_active Abandoned
-
2018
- 2018-02-05 JP JP2019541277A patent/JP2020509466A/ja active Pending
- 2018-02-05 WO PCT/US2018/016903 patent/WO2018145028A1/en active Application Filing
- 2018-02-05 DE DE112018000335.3T patent/DE112018000335T5/de not_active Withdrawn
- 2018-02-05 CN CN201880010444.XA patent/CN110291499A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2256667A1 (en) * | 2009-05-28 | 2010-12-01 | Honda Research Institute Europe GmbH | Driver assistance system or robot with dynamic attention module |
JP2011008772A (ja) * | 2009-05-28 | 2011-01-13 | Honda Research Inst Europe Gmbh | 動的注意モジュールを備えた運転者支援システムまたはロボット |
JP2012079117A (ja) * | 2010-10-01 | 2012-04-19 | Toyota Motor Corp | 車両の物体認識システム |
US20130194086A1 (en) * | 2010-10-01 | 2013-08-01 | Toyota Jidosha Kabushiki Kaisha | Obstacle recognition system and method for a vehicle |
Non-Patent Citations (6)
Title |
---|
DENG, T., ET AL.: "Where does the driver look? Top-down-based saliency detection in a traffic driving environment.", IEEE TRANSACTIONS ON INTELLIGENT TRANSPORTATION SYSTEMS, vol. Volume 17 Number 7, JPN6020036783, July 2016 (2016-07-01), pages 2051 - 2062, ISSN: 0004483008 * |
DOSHI, A.,ET AL.: "Attention estimation by simultaneous observation of viewer and view.", IN 2010 IEEE COMPUTER SOCIETY CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION-WORKSHOPS, JPN6020036788, June 2010 (2010-06-01), pages 21 - 27, XP031728459, ISSN: 0004483010 * |
JETLEY, S.,ET AL.: "End-to-end saliency mapping via probability distribution prediction.", IN PROCEEDINGS OF THE IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION, JPN6020036786, 2016, pages 5753 - 5761, XP033021773, ISSN: 0004483009, DOI: 10.1109/CVPR.2016.620 * |
LONG, J., ET AL.: "Fully convolutional networks for semantic segmentation.", IN PROCEEDINGS OF THE IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION, JPN6020036792, 2015, pages 3431 - 3440, XP032793793, ISSN: 0004483011, DOI: 10.1109/CVPR.2015.7298965 * |
MICHAEL, D., ET AL., THE IMPORTANCE OF SKIP CONNECTIONS IN BIOMEDICAL IMAGE SEGMENTATION [ONLINE], vol. Version 2, JPN6020036794, 22 September 2016 (2016-09-22), ISSN: 0004483012 * |
ZHANG, L.,ET AL.: "SUN: A Bayesian framework for saliency using natural statistics.", JOURNAL OF VISION, vol. Volume 8 Number 7, JPN6020036780, 16 December 2008 (2008-12-16), ISSN: 0004483007 * |
Also Published As
Publication number | Publication date |
---|---|
DE112018000335T5 (de) | 2019-09-19 |
WO2018145028A1 (en) | 2018-08-09 |
US20180225554A1 (en) | 2018-08-09 |
CN110291499A (zh) | 2019-09-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2020509466A (ja) | 完全な畳み込みアーキテクチャを使用する運転者の視覚的注意のための計算フレームワークのシステム及び方法 | |
US11676364B2 (en) | Real-time detection of lanes and boundaries by autonomous vehicles | |
CN111133447B (zh) | 适于自主驾驶的对象检测和检测置信度的方法和系统 | |
JP7399164B2 (ja) | 駐車スペース検出に適したスキューされたポリゴンを使用した物体検出 | |
US10877485B1 (en) | Handling intersection navigation without traffic lights using computer vision | |
US11508049B2 (en) | Deep neural network processing for sensor blindness detection in autonomous machine applications | |
US11080590B2 (en) | Stereo depth estimation using deep neural networks | |
CN111565978B (zh) | 主预览区域和基于视线的驾驶员分心检测 | |
US20190250622A1 (en) | Controlling autonomous vehicles using safe arrival times | |
DE102020115479A1 (de) | Erweiterte bildgebung mit hohem dynamikumfang und tone -mapping | |
DE102021100065A1 (de) | Verwendung neuronaler netze zur fehlererkennung bei anwendungen für autonomes fahren | |
US11908104B2 (en) | Weighted normalized automatic white balancing | |
JP7027737B2 (ja) | 画像処理装置、および画像処理方法、並びにプログラム | |
US10764536B2 (en) | System and method for a dynamic human machine interface for video conferencing in a vehicle | |
KR20200043391A (ko) | 화상 블러 보정을 위한 화상 처리, 화상 처리 방법 및 프로그램 | |
JPWO2019077999A1 (ja) | 撮像装置、画像処理装置、及び、画像処理方法 | |
US20230215196A1 (en) | Information processing apparatus, information processing method, and program | |
CN117015792A (zh) | 有凹图像放大用于自动驾驶生成物体检测标签的系统和方法 | |
CN111862226B (zh) | 用于车辆中的摄像机校准和图像预处理的硬件设计 | |
CN113752940B (zh) | 进出隧道车灯控制方法、设备、存储介质及装置 | |
CN114103982A (zh) | 车辆用显示控制装置、方法、计算机可读存储介质以及车辆用显示系统 | |
KR20210102212A (ko) | 화상 처리 장치, 화상 처리 방법 및 화상 처리 시스템 | |
CN116542346A (zh) | 在车辆的边缘训练感知模型 | |
JPWO2020170835A1 (ja) | 情報処理装置、情報処理方法及び情報処理プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190820 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190820 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20191008 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20191105 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200819 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201006 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20210413 |