JP2022512290A - 色覚困難の知覚を改善する多重スペクトル多重偏光(msmp)フィルタ処理 - Google Patents
色覚困難の知覚を改善する多重スペクトル多重偏光(msmp)フィルタ処理 Download PDFInfo
- Publication number
- JP2022512290A JP2022512290A JP2021523507A JP2021523507A JP2022512290A JP 2022512290 A JP2022512290 A JP 2022512290A JP 2021523507 A JP2021523507 A JP 2021523507A JP 2021523507 A JP2021523507 A JP 2021523507A JP 2022512290 A JP2022512290 A JP 2022512290A
- Authority
- JP
- Japan
- Prior art keywords
- filter
- image data
- data
- interest
- spectrum
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000008447 perception Effects 0.000 title description 5
- 238000001914 filtration Methods 0.000 title description 2
- 208000006992 Color Vision Defects Diseases 0.000 title 1
- 201000007254 color blindness Diseases 0.000 title 1
- 238000000034 method Methods 0.000 claims abstract description 40
- 238000001228 spectrum Methods 0.000 claims abstract description 31
- 230000010287 polarization Effects 0.000 claims description 41
- 238000003860 storage Methods 0.000 claims description 31
- 239000002131 composite material Substances 0.000 claims description 22
- 238000010801 machine learning Methods 0.000 claims description 16
- 238000004422 calculation algorithm Methods 0.000 claims description 15
- 238000001514 detection method Methods 0.000 claims description 11
- 238000004364 calculation method Methods 0.000 claims description 5
- 230000003287 optical effect Effects 0.000 description 34
- 230000015654 memory Effects 0.000 description 31
- 238000003491 array Methods 0.000 description 18
- 230000003595 spectral effect Effects 0.000 description 15
- 238000004891 communication Methods 0.000 description 14
- 230000004044 response Effects 0.000 description 11
- 230000006870 function Effects 0.000 description 9
- 238000001429 visible spectrum Methods 0.000 description 7
- 239000003086 colorant Substances 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 230000008901 benefit Effects 0.000 description 4
- 238000010276 construction Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 230000033001 locomotion Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 230000001413 cellular effect Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000012512 characterization method Methods 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 229910044991 metal oxide Inorganic materials 0.000 description 2
- 150000004706 metal oxides Chemical class 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 241000699670 Mus sp. Species 0.000 description 1
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 239000000872 buffer Substances 0.000 description 1
- 238000000701 chemical imaging Methods 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 238000003306 harvesting Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 229920001690 polydopamine Polymers 0.000 description 1
- 230000008707 rearrangement Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 210000000857 visual cortex Anatomy 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B5/00—Optical elements other than lenses
- G02B5/20—Filters
- G02B5/201—Filters in the form of arrays
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/143—Sensing or illuminating at different wavelengths
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/147—Details of sensors, e.g. sensor lenses
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/111—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/133—Equalising the characteristics of different image components, e.g. their average brightness or colour balance
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/25—Image signal generators using stereoscopic image cameras using two or more image sensors with different characteristics other than in their location or field of view, e.g. having different resolutions or colour pickup characteristics; using image signals from one sensor to control the characteristics of another sensor
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/257—Colour aspects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/90—Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/10—Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
- H04N25/11—Arrangement of colour filter arrays [CFA]; Filter mosaics
- H04N25/13—Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
- H04N25/133—Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements including elements passing panchromatic light, e.g. filters passing white light
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B5/00—Optical elements other than lenses
- G02B5/30—Polarising elements
- G02B5/3025—Polarisers, i.e. arrangements capable of producing a definite output polarisation state from an unpolarised input state
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0077—Colour aspects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/10—Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
- H04N25/11—Arrangement of colour filter arrays [CFA]; Filter mosaics
- H04N25/13—Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
- H04N25/135—Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on four or more different wavelength filter elements
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Vascular Medicine (AREA)
- General Health & Medical Sciences (AREA)
- Optics & Photonics (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
- Software Systems (AREA)
- Traffic Control Systems (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
Abstract
Description
Claims (20)
- コンピューティングシステムによって、
第1のフィルタパターンを有する第1のフィルタアレイを有する第1のイメージセンサによって生成された第1の画像データにアクセスする段階であって、前記第1のフィルタパターンが、関心スペクトルに対応する第1のフィルタタイプと、第2のフィルタタイプとを有する、段階と、
前記第1のフィルタパターンとは異なる第2のフィルタパターンを有する第2のフィルタアレイを有する第2のイメージセンサによって生成された第2の画像データにアクセスする段階であって、前記第2のフィルタパターンが複数の第2のフィルタタイプを有し、前記複数の第2のフィルタタイプおよび複数の前記第1のフィルタタイプが少なくとも1つの共通のフィルタタイプを有する、段階と、
前記共通のフィルタタイプと関連付けられた前記第1の画像データの部分、および前記共通のフィルタタイプと関連付けられた前記第2の画像データの部分に基づいて、前記第1の画像データの1つまたは複数の第1のピクセルと前記第2の画像データの1つまたは複数の第2のピクセルとの間の対応を決定する段階と、
前記対応に基づいて、前記第1の画像データおよび前記第2の画像データを使用して複合データを生成する段階であって、前記複合データが前記関心スペクトルに対応する前記第1のフィルタタイプのデータを有する、段階と、
前記複合データに基づいて、前記関心スペクトルを有する1つまたは複数の対象物を検出する段階と
を備える、方法。 - 前記第1の画像データまたは前記第2の画像データからの複数の偏光フィルタのデータに基づいて、前記第1の画像データおよび前記第2の画像データの深度情報を計算する段階を更に備える、請求項1に記載の方法。
- 前記深度情報を計算する段階が、前記共通のフィルタタイプと関連付けられた前記第1の画像データの前記部分、および前記共通のフィルタタイプと関連付けられた前記第2の画像データの前記部分に基づいて、前記第1の画像データのピクセルと前記第2の画像データの対応するピクセルとの間の空間オフセットを決定する段階を備える、請求項2に記載の方法。
- 前記1つまたは複数の対象物を検出する段階が、前記関心スペクトルに対応する前記第1のフィルタタイプのデータを、前記関心スペクトルを有する対象物の格納されたデータと比較する段階を備える、請求項1から3のいずれか一項に記載の方法。
- 前記第1のフィルタパターンおよび前記第2のフィルタパターンにおける前記第2のフィルタタイプの相対位置が同じである、請求項1から4のいずれか一項に記載の方法。
- 前記関心スペクトルに対応する前記第1のフィルタタイプが前記第2のフィルタパターンには存在しない、請求項1から5のいずれか一項に記載の方法。
- 第3の画像データにアクセスする段階であって、前記複合データを生成する段階が、1つまたは複数の追加のイメージセンサによって生成された1つもしくは複数の画像データを使用する段階を更に有し、前記1つまたは複数の追加のイメージセンサの少なくとも1つが、前記第1のフィルタパターンまたは前記第2のフィルタパターンとは異なる第3のフィルタパターンを有する第3のフィルタアレイを有する、段階を更に備える、請求項1から6のいずれか一項に記載の方法。
- 前記検出する段階が、機械学習アルゴリズムによって、前記複合データを1つまたは複数の関心対象物の格納された複合データと比較する段階を備える、請求項1から7のいずれか一項に記載の方法。
- 前記複合データと関連付けられた空間情報および前記複合データを有するテンソルを生成する段階を更に備える、請求項1から8のいずれか一項に記載の方法。
- 第1のフィルタパターンを有する第1のフィルタアレイを有する第1のイメージセンサによって生成された第1の画像データにアクセスする段階であって、前記第1のフィルタパターンが、関心スペクトルに対応する第1のフィルタタイプと、第2のフィルタタイプとを有する、段階と、
前記第1のフィルタパターンとは異なる第2のフィルタパターンを有する第2のフィルタアレイを有する第2のイメージセンサによって生成された第2の画像データにアクセスする段階であって、前記第2のフィルタパターンが複数の第2のフィルタタイプを有し、前記複数の第2のフィルタタイプおよび複数の前記第1のフィルタタイプが少なくとも1つの共通のフィルタタイプを有する、段階と、
前記共通のフィルタタイプと関連付けられた前記第1の画像データの部分、および前記共通のフィルタタイプと関連付けられた前記第2の画像データの部分に基づいて、前記第1の画像データの1つまたは複数の第1のピクセルと前記第2の画像データの1つまたは複数の第2のピクセルとの間の対応を決定する段階と、
前記対応に基づいて、前記第1の画像データおよび前記第2の画像データを使用して複合データを生成する段階であって、前記複合データが前記関心スペクトルに対応する前記第1のフィルタタイプのデータを有する、段階と、
前記複合データに基づいて、前記関心スペクトルを有する1つまたは複数の対象物を検出する段階と
をコンピュータに実行させるプログラム。 - 前記第1の画像データまたは前記第2の画像データからの複数の偏光フィルタのデータに基づいて、前記第1の画像データおよび前記第2の画像データの深度情報を計算することを更にコンピュータに実行させる、請求項10に記載のプログラム。
- 前記共通のフィルタタイプと関連付けられた前記第1の画像データの前記部分、および前記共通のフィルタタイプと関連付けられた前記第2の画像データの前記部分に基づいて、前記第1の画像データのピクセルと前記第2の画像データの対応するピクセルとの間の空間オフセットを決定することを更にコンピュータに実行させる、請求項11に記載のプログラム。
- 前記関心スペクトルに対応する前記第1のフィルタタイプのデータを、前記関心スペクトルを有する対象物の格納されたデータと比較することを更にコンピュータに実行させる、請求項10から12のいずれか一項に記載のプログラム。
- 前記第1のフィルタパターンおよび前記第2のフィルタパターンにおける前記第2のフィルタタイプの相対位置が同じである、請求項10から13のいずれか一項に記載のプログラム。
- 前記関心スペクトルに対応する前記第1のフィルタタイプが前記第2のフィルタパターンには存在しない、請求項10から14のいずれか一項に記載のプログラム。
- コンピューティングシステムであって、
1つまたは複数のプロセッサと、
前記1つまたは複数のプロセッサのうち1つまたは複数に結合された1つまたは複数のコンピュータ可読非一時的記憶媒体であって、前記1つまたは複数のプロセッサのうち1つまたは複数によって実行されると、前記コンピューティングシステムに動作を実施させるように動作可能な命令を有する、1つまたは複数のコンピュータ可読非一時的記憶媒体と、を備え、前記動作が、
第1のフィルタパターンを有する第1のフィルタアレイを有するイメージセンサによって生成された第1の画像データにアクセスする段階であって、前記第1のフィルタパターンが、関心スペクトルに対応する第1のフィルタタイプと、第2のフィルタタイプとを有する、段階と、
前記第1のフィルタパターンとは異なる第2のフィルタパターンを有する第2のフィルタアレイをそれぞれ有する1つまたは複数の追加のイメージセンサによって生成された第2の画像データにアクセスする段階であって、前記第2のフィルタパターンが複数の第2のフィルタタイプを有し、前記複数の第2のフィルタタイプおよび複数の前記第1のフィルタタイプが少なくとも1つの共通のフィルタタイプを有する、段階と、
前記共通のフィルタタイプと関連付けられた前記第1の画像データの部分、および前記共通のフィルタタイプと関連付けられた前記第2の画像データの部分に基づいて、前記第1の画像データの1つまたは複数の第1のピクセルと前記1つまたは複数の追加のイメージセンサによって生成された前記第2の画像データの1つまたは複数の第2のピクセルとの間の対応を決定する段階と、
前記1つまたは複数の追加のイメージセンサによって、前記対応に基づいて、前記第1の画像データおよび前記第2の画像データを使用して複合データを生成する段階であって、前記複合データが前記関心スペクトルに対応する前記第1のフィルタタイプのデータを有する、段階と、
前記複合データに基づいて、前記関心スペクトルを有する1つまたは複数の対象物を検出する段階と
を備えるシステム。 - 前記1つまたは複数のプロセッサが、前記第1の画像データまたは前記第2の画像データからの複数の偏光フィルタのデータに基づいて、前記1つまたは複数の追加のイメージセンサによって生成された前記第1の画像データおよび前記第2の画像データの深度情報を計算するように更に動作可能である、請求項16に記載のシステム。
- 前記1つまたは複数のプロセッサが、前記共通のフィルタタイプと関連付けられた前記第1の画像データの前記部分、および前記共通のフィルタタイプと関連付けられた前記第2の画像データの前記部分に基づいて、前記1つまたは複数の追加のイメージセンサによって生成された前記第1の画像データのピクセルと前記第2の画像データの対応するピクセルとの間の空間オフセットを決定するように更に動作可能である、請求項17に記載のシステム。
- 前記1つまたは複数のプロセッサが、前記関心スペクトルに対応する前記第1のフィルタタイプのデータを、前記関心スペクトルを有する対象物の格納されたデータと比較するように更に動作可能である、請求項16から18のいずれか一項に記載のシステム。
- 前記第1のフィルタパターンおよび前記第2のフィルタパターンにおける前記第2のフィルタタイプの相対位置が同じである、請求項16から19のいずれか一項に記載のシステム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/221,414 | 2018-12-14 | ||
US16/221,414 US10708557B1 (en) | 2018-12-14 | 2018-12-14 | Multispectrum, multi-polarization (MSMP) filtering for improved perception of difficult to perceive colors |
PCT/US2019/064746 WO2020123258A1 (en) | 2018-12-14 | 2019-12-05 | Multispectrum, multi-polarization (msmp) filtering for improved perception of difficult to perceive colors |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022512290A true JP2022512290A (ja) | 2022-02-03 |
JP7372322B2 JP7372322B2 (ja) | 2023-10-31 |
Family
ID=71073144
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021523507A Active JP7372322B2 (ja) | 2018-12-14 | 2019-12-05 | 色覚困難の知覚を改善する多重スペクトル多重偏光(msmp)フィルタ処理 |
Country Status (4)
Country | Link |
---|---|
US (2) | US10708557B1 (ja) |
EP (1) | EP3857870A4 (ja) |
JP (1) | JP7372322B2 (ja) |
WO (1) | WO2020123258A1 (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11676245B2 (en) * | 2018-05-24 | 2023-06-13 | Sony Corporation | Information processing apparatus and method for processing information |
EP3578126B1 (en) * | 2018-06-08 | 2023-02-22 | Stryker European Operations Holdings LLC | Surgical navigation system |
EP3866462B1 (en) * | 2018-10-09 | 2022-11-02 | FUJIFILM Corporation | Imaging device |
KR102646521B1 (ko) * | 2019-09-17 | 2024-03-21 | 인트린식 이노베이션 엘엘씨 | 편광 큐를 이용한 표면 모델링 시스템 및 방법 |
EP4042101A4 (en) | 2019-10-07 | 2023-11-22 | Boston Polarimetrics, Inc. | SYSTEMS AND METHODS FOR DETECTING SURFACE NORMALS USING POLARIZATION |
EP4066001A4 (en) * | 2019-11-30 | 2024-01-24 | Boston Polarimetrics, Inc. | SYSTEMS AND METHODS FOR TRANSPARENT OBJECT SEGMENTATION USING POLARIZATION GUIDES |
US11976939B2 (en) * | 2020-10-12 | 2024-05-07 | Nvidia Corporation | High-definition maps and localization for road vehicles |
CN115314617A (zh) * | 2022-08-03 | 2022-11-08 | Oppo广东移动通信有限公司 | 图像处理系统及方法、计算机可读介质和电子设备 |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7630806B2 (en) | 1994-05-23 | 2009-12-08 | Automotive Technologies International, Inc. | System and method for detecting and protecting pedestrians |
US7567271B2 (en) * | 2006-01-09 | 2009-07-28 | Sony Corporation | Shared color sensors for high-resolution 3-D camera |
JP5186517B2 (ja) | 2010-02-25 | 2013-04-17 | シャープ株式会社 | 撮像装置 |
US20120188409A1 (en) * | 2011-01-24 | 2012-07-26 | Andrew Charles Gallagher | Camera with multiple color sensors |
CN107346061B (zh) | 2012-08-21 | 2020-04-24 | 快图有限公司 | 用于使用阵列照相机捕捉的图像中的视差检测和校正的系统和方法 |
JP6182396B2 (ja) | 2013-08-30 | 2017-08-16 | 日立オートモティブシステムズ株式会社 | 撮像装置 |
KR101611261B1 (ko) * | 2013-12-12 | 2016-04-12 | 엘지전자 주식회사 | 스테레오 카메라, 이를 구비한 차량 운전 보조 장치, 및 차량 |
KR101641406B1 (ko) * | 2013-12-30 | 2016-07-21 | 연세대학교 산학협력단 | 스테레오 카메라 |
US9113096B1 (en) * | 2014-06-30 | 2015-08-18 | Amazon Technologies, Inc. | Single sensor two-sided camera |
WO2016168378A1 (en) | 2015-04-13 | 2016-10-20 | Gerard Dirk Smits | Machine vision for ego-motion, segmenting, and classifying objects |
JP6566749B2 (ja) * | 2015-07-01 | 2019-08-28 | 株式会社ソニー・インタラクティブエンタテインメント | 撮像素子、イメージセンサ、および情報処理装置 |
JP6493087B2 (ja) | 2015-08-24 | 2019-04-03 | 株式会社デンソー | 車載カメラ装置 |
EP3439301B1 (en) * | 2016-03-30 | 2021-01-13 | LG Electronics Inc. -1- | Image processing apparatus and mobile terminal |
KR102392751B1 (ko) | 2017-03-07 | 2022-04-29 | 삼성전자 주식회사 | 카메라 모듈을 구비한 전자 장치 및 전자 장치 제어 방법 |
KR101831890B1 (ko) | 2017-09-25 | 2018-02-26 | 공간정보기술 주식회사 | 스테레오 카메라를 사용해서 3차원 위치 기반 객체 식별 알고리즘을 응용한 유사도 측정 알고리즘의 정확도 향상 시스템 |
US11039122B2 (en) * | 2018-09-04 | 2021-06-15 | Google Llc | Dark flash photography with a stereo camera |
-
2018
- 2018-12-14 US US16/221,414 patent/US10708557B1/en active Active
-
2019
- 2019-12-05 JP JP2021523507A patent/JP7372322B2/ja active Active
- 2019-12-05 EP EP19894627.9A patent/EP3857870A4/en active Pending
- 2019-12-05 WO PCT/US2019/064746 patent/WO2020123258A1/en unknown
-
2020
- 2020-07-06 US US16/921,596 patent/US20200404224A1/en not_active Abandoned
Also Published As
Publication number | Publication date |
---|---|
EP3857870A1 (en) | 2021-08-04 |
JP7372322B2 (ja) | 2023-10-31 |
US20200195862A1 (en) | 2020-06-18 |
US20200404224A1 (en) | 2020-12-24 |
WO2020123258A1 (en) | 2020-06-18 |
EP3857870A4 (en) | 2022-05-18 |
US10708557B1 (en) | 2020-07-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7372322B2 (ja) | 色覚困難の知覚を改善する多重スペクトル多重偏光(msmp)フィルタ処理 | |
US11570416B2 (en) | Multichannel, multi-polarization imaging for improved perception | |
US11226413B2 (en) | Apparatus for acquiring 3-dimensional maps of a scene | |
Chen et al. | Cooper: Cooperative perception for connected autonomous vehicles based on 3d point clouds | |
US10992860B2 (en) | Dynamic seam adjustment of image overlap zones from multi-camera source images | |
US11023788B2 (en) | Systems and methods for estimating future paths | |
US10970878B2 (en) | Camera calibration using reference map | |
US10943355B2 (en) | Systems and methods for detecting an object velocity | |
US11255952B2 (en) | Image sensor processing using a combined image and range measurement system | |
US11733353B2 (en) | Object detection using local (ground-aware) adaptive region proposals on point clouds | |
US20200209858A1 (en) | Generating environmental parameters based on sensor data using machine learning | |
JP6574611B2 (ja) | 立体画像に基づいて距離情報を求めるためのセンサシステム | |
CN109891463A (zh) | 图像处理设备和图像处理方法 | |
WO2017043331A1 (ja) | 画像処理装置、及び、画像処理方法 | |
El-Hassan | Experimenting with sensors of a low-cost prototype of an autonomous vehicle | |
US10991155B2 (en) | Landmark location reconstruction in autonomous machine applications | |
US20230298268A1 (en) | Environment reconstruction and path planning for autonomous systems and applications | |
Srinivasan et al. | Latest Advancements in Perception Algorithms for ADAS and AV Systems Using Infrared Images and Deep Learning | |
Morales-Matamoros et al. | Unmanned Ground Vehicle with Stereoscopic Vision for a Safe Autonomous Exploration | |
CN118119981A (zh) | 用于自主系统和应用的使用机器学习的自由空间检测 | |
CN118113036A (zh) | 使用超声传感器用于自主系统及应用的传感器融合 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20210917 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221117 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230913 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230919 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231019 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7372322 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |