JP2020140497A - 演算装置、視差算出方法 - Google Patents
演算装置、視差算出方法 Download PDFInfo
- Publication number
- JP2020140497A JP2020140497A JP2019036151A JP2019036151A JP2020140497A JP 2020140497 A JP2020140497 A JP 2020140497A JP 2019036151 A JP2019036151 A JP 2019036151A JP 2019036151 A JP2019036151 A JP 2019036151A JP 2020140497 A JP2020140497 A JP 2020140497A
- Authority
- JP
- Japan
- Prior art keywords
- parallax
- block
- candidate
- image
- arithmetic unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C3/00—Measuring distances in line of sight; Optical rangefinders
- G01C3/02—Details
- G01C3/06—Use of electric means to obtain final indication
- G01C3/08—Use of electric radiation detectors
- G01C3/085—Use of electric radiation detectors with electronic parallax measurement
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C3/00—Measuring distances in line of sight; Optical rangefinders
- G01C3/10—Measuring distances in line of sight; Optical rangefinders using a parallactic triangle with variable angles and a base of fixed length in the observation station, e.g. in the instrument
- G01C3/14—Measuring distances in line of sight; Optical rangefinders using a parallactic triangle with variable angles and a base of fixed length in the observation station, e.g. in the instrument with binocular observation at a single point, e.g. stereoscopic type
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/09—Arrangements for giving variable traffic instructions
- G08G1/0962—Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
- G08G1/09623—Systems involving the acquisition of information from passive traffic signs by means mounted on the vehicle
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/166—Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/271—Image signal generators wherein the generated image signals comprise depth maps or disparity maps
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Electromagnetism (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Measurement Of Optical Distance (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
- Image Processing (AREA)
Abstract
Description
本発明の第2の態様による視差算出方法は、第1のブロック単位で視差を示す粗距離画像を格納する記憶部を備える演算装置が実行する視差算出方法であって、第1のカメラで撮影して得られた画像である基準画像、および第2のカメラで撮影して得られた画像である参照画像を用いて、前記第1のブロック以下の大きさである第2のブロック単位で、前記第2のブロックごとに視差の候補である視差候補に基づき、前記基準画像における視差を算出して詳細な距離画像である詳細距離画像を生成することと、視差の算出対象である前記第2のブロックを含む前記第1のブロックの大きさを有する領域である親ブロックの視差、前記親ブロックに隣接する前記第1のブロックの大きさを有する領域である隣接ブロックの視差、および探索条件に基づき前記視差候補を算出することとを含む。
以下、図1〜図5を参照して、本発明に係る演算装置の第1の実施の形態を説明する。
図1は、本発明に係る演算装置1を搭載する車両9のハードウエア構成図である。車両9は、演算装置1と、左カメラ2と、右カメラ3と、車両制御装置4と、距離センサ5とを備える。演算装置1および車両制御装置4は電子制御装置(Electronic Control Unit)である。左カメラ2および右カメラ3は、車両9の周囲を撮影して得られた撮影画像を演算装置1に出力する。左カメラ2および右カメラ3は、水平方向に並んで配置される。以下では、左カメラ2の撮影画像を左画像21、右カメラ3の撮影画像を右画像31と呼ぶ。また左カメラ2を「第1のカメラ」と呼び、右カメラ3を「第2のカメラ」と呼ぶこともある。
図2は、左画像21、右画像31、粗距離画像41、および詳細距離画像46に格納される情報の解像度の比較を説明する図である。ただしここでいう解像度とは、奥行き方向の距離ではなく、画像上の上下方向や左右方向の分解能の高さを意味する。
図3は、演算装置1が有する機能を機能ブロックとして示した機能ブロック図である。ただし図3には、説明の便宜のために、記憶部131およびROM12に格納される情報も示している。演算装置1はその機能として、第1視差探索部103Aと、候補算出部106と、記憶部131とを備える。記憶部131はたとえばRAM13により実現される。記憶部131には距離センサ5から入力される粗距離画像41が格納される。粗距離画像41は、距離センサ5から新たな粗距離画像41が入力されるたびに上書きされる。なお厳密には左画像21および右画像31もRAMである記憶部131に入力されるが、図3では記載を省略している。
図5は候補算出部106の動作を説明する図である。図5(a)および図5(b)は粗距離画像41の概念図、図5(c)は全域視差候補43の概念図である。厳密には図5(c)は、左画像21を構成する第2のブロックの領域に、そのブロックの視差候補43aの基準値を記載したものである。ただし図5(a)〜(c)のいずれも粗距離画像41や全域視差候補43の一部のみを示している。また図5(a)および図5(b)における四角の枠は第1のブロックを表しており、図5(c)における四角の枠は第2のブロックを表している。なお図5(b)と図5(c)の太線の枠は対応しており、図5(b)の四角の枠で示す第2のブロックと、図5(c)の四角の枠に含まれる4つの小さな第2のブロックのそれぞれは、親ブロックと子ブロックの関係にある。
図6は、第1視差探索部103Aによる視差の決定を説明する概念図である。図6(a)に左画像21と右画像31が示されている。この例では、基準画像である左画像21の領域911に対応する参照画像、すなわち右画像31の領域を探索している。本実施の形態では左カメラ2と右カメラ3が水平方向に並んで設置されているので、エピポーラ線は符号912で示す水平方向に延びる破線である。左画像21および右画像31の図示横方向の幅が800画素であり、領域911の中心が左端から200画素目の場合に、参照画像である右画像31には図示するように−200〜+600の数値が振られる。たとえば参照画像の左から600画素を中心とする領域903が基準画像の領域901に対応する、すなわち非類似度が最も低いと判断された場合には、視差は「400」と算出される。
図7は、第1の実施の形態における演算装置1の動作を表すフローチャートである。以下に説明する各ステップの実行主体は演算装置1のCPU11である。ステップS301では候補算出部106は、記憶部131から粗距離画像41を取得する。続くステップS302では候補算出部106は、ROM12から視差テーブル121を読み込み、粗距離画像41に格納されている距離を視差に変換する。続くステップS303では候補算出部106は、左画像21の全ての第2ブロックを処理対象として、粗距離画像41における親ブロックおよび親ブロックの左右に隣接するブロックから視差を取得する。なおこの視差は視差候補43aの基準値として扱われる。
(1)演算装置1は、第1のブロック単位で二次元平面の視差を示す粗距離画像41を格納する記憶部131と、第1のカメラすなわち左カメラ2で撮影して得られた画像である左画像21すなわち基準画像、および第2のカメラすなわち右カメラ3で撮影して得られた画像である右画像31すなわち参照画像を用いて、第1のブロック以下の大きさである第2のブロック単位で、第2のブロックごとに視差の候補である視差候補43aに基づき基準画像における視差を算出して詳細な距離画像である詳細距離画像46を生成する第1視差探索部103Aと、第1視差探索部103Aが視差を算出する第2のブロックを含む第1のブロックの大きさを有する領域である親ブロックの視差、親ブロックに隣接する第1のブロックの大きさを有する領域である隣接ブロックの視差、および探索条件に基づき視差候補43aを算出する候補算出部106とを備える。そのため、親ブロックだけでなく親ブロックに隣接するブロックの視差も用いて視差候補43aを決定するので、算出する距離の精度を向上できる。この利点を詳述する。
上述した第1の実施の形態では、粗距離画像41は距離センサ5が出力した。しかし演算装置1が粗距離画像41を生成する第2視差探索部を備えてもよい。この場合は車両9は距離センサ5を備えなくてもよい。
(5)演算装置1は、基準画像および参照画像を用いて粗距離画像41を作成し記憶部131に格納する第2視差探索部103Bを備える。そのため車両9が距離センサ5を備えなくても詳細距離画像46を作成できる。
上述した第1の実施の形態では、第1のブロックは第2のブロックよりも大きかった。しかし第1のブロックと第2のブロックは同一のサイズであってもよい。すなわちこの場合は、処理対象とするブロックの視差、すなわち距離の情報を、周辺のブロックの視差を利用して改めて算出する。そのため、詳細距離画像46に格納される距離情報は、粗距離画像41に格納される距離情報よりも精度が高くなる利点があり、一定の有用性が認められる。
上述した第1の実施の形態では、候補算出部106は親ブロックと親ブロックの左右に隣接するブロックの視差の全てを視差候補43aの基準値とした。しかし候補算出部106は視差候補43aの基準値を1つに絞り、1つの基準値から所定の範囲を視差候補43aとしてもよい。この場合に候補算出部106は、それぞれの視差候補43aの基準値について非類似度を算出し、最も確からしい視差、すなわち非類似度が最も低い基準値を採用する。
(6)候補算出部106は、粗距離画像41において親ブロックおよび隣接ブロックのそれぞれに設定されている視差からいずれか1つの視差を選択し、選択した視差を用いて視差候補43aを決定する。そのため、計算量を削減することができる。
上述した第1の実施の形態では、候補算出部106の探索条件は「親ブロックおよび親ブロックの水平方向に隣接するブロック」であった。しかし探索条件はこれに限定されない。
候補算出部106および第1視差探索部103Aは、詳細距離画像46を用いてさらに詳細な距離画像を作成してもよい。換言すると演算装置1は、第1の実施の形態における粗距離画像41から詳細距離画像46を作成する処理を、詳細距離画像46からさらに詳細な距離画像の作成に適用してもよい。さらに演算装置1は、この処理を繰り返し実行して距離画像の解像度を徐々に向上させ、最終的には1画素ごとに距離を算出してもよい。
候補算出部106は、取得した視差候補43aの基準値からあらかじめ定めた所定の範囲を視差候補43aとした。たとえば上述した第1の実施の形態では、所定の範囲はプラスマイナス20画素として説明した。しかし候補算出部106は、この範囲を距離に応じて可変としてもよい。被写体までの距離が遠く視差が小さい場合には変化量も小さいが、被写体までの距離が近く視差が大きい場合には変化量が大きい傾向にあるためである。
上述した第1の実施の形態では、第1視差探索部103Aは、非類似度を算出する領域と視差を設定する領域を一致させていた。しかし第1視差探索部103Aは、非類似度を算出する領域よりも視差を設定する領域を狭く設定してもよい。非類似度の算出、すなわち対応する位置の探索を広い領域で行い、視差は狭い範囲で行うことによりノイズの影響を受けにくくする利点を有する。
上述した第1の実施の形態では、候補算出部106は処理対象の第2のブロックの親ブロックの視差および親ブロックの左右に隣接するブロックの視差を視差候補43aの基準値とした。しかし所定の場合には、親ブロックの視差のみを視差候補43aの基準値としてもよい。所定の場合とはたとえば、親ブロックの視差の値と、親ブロックの左右に隣接するブロックの視差との差が所定値以下の場合である。別の所定の場合とは、親ブロックの視差の値が非常に大きい、または非常に小さい場合である。
(7)演算装置1、左カメラ2、および右カメラ3は車両9に搭載される。候補算出部106は、車両9の速度および親ブロックの視差に基づき、親ブロックの視差のみを用いて視差候補43aを決定するか否かを決定する。そのため、不要な演算を削減できる。
特定の条件を満たす場合には、第1視差探索部103Aは探索を行わず、親ブロックの視差の値をそのまま子ブロックの視差としてもよい。本変形例では、候補算出部106は以下に述べる所定の場合に、第2のブロックごとに、第1視差探索部103Aに探索が不要な旨の特別な信号および親ブロックの視差を出力し、この特別な信号を受信した第1視差探索部103Aは受信した親ブロックの視差を子ブロックの視差とする。
上述した第1の実施の形態では、詳細距離画像46を出力するタイミングは特に規定しなかった。しかし以下に説明するように第1〜第4のいずれのタイミングで出力してもよい。第1のタイミングは、詳細距離画像46の全体が作成されたタイミングである。第1のタイミングで出力する場合には、詳細距離画像46の全体が一度に出力される。第2のタイミングは、詳細距離画像46の図示横方向の1ラインが作成されたタイミングである。第2のタイミングで出力する場合には、詳細距離画像46の1ラインが作成されるたびにその1ラインの情報が出力される。
上述した第1の実施の形態では、第1視差探索部103Aが出力する詳細距離画像46には視差の値そのものが含まれた。しかし第1視差探索部103Aは、視差テーブル121を用いて詳細距離画像46に含まれる視差を距離に変換して出力してもよい。この場合に第1視差探索部103Aは、各画素の値が所定の範囲、たとえば0〜255となるように全画素の値に最適な係数を掛ける、いわゆる正規化処理をさらに施してもよい。
第1の実施の形態において、説明した演算装置1の機能構成は一例に過ぎない。図2に示したいくつかの機能構成を一体に構成されてもよいし、図3では1つの機能ブロック図で表した構成を2以上の機能に分割してもよい。また各機能ブロックが有する機能の一部を他の機能ブロックが備える構成としてもよい。たとえば視差候補43aには基準値のみを含め、第1視差探索部103Aが基準値を中心とした所定の範囲を探索範囲としてもよい。たとえば本変形例では視差候補43aが「50、100、400画素」であり、第1視差探索部103Aはこの視差候補43aが入力されると「30〜70、80〜120、380〜420画素」を探索する。
図14〜図15を参照して、本発明に係る演算装置の第2の実施の形態を説明する。以下の説明では、第1の実施の形態と同じ構成要素には同じ符号を付して相違点を主に説明する。特に説明しない点については、第1の実施の形態と同じである。本実施の形態では、主に、撮影画像からエッジを検出しエッジを利用して探索範囲を変化させる点で、第1の実施の形態と異なる。本実施の形態における演算装置1Aのハードウエア構成、および演算装置1Aを搭載する車両9のハードウエア構成は第1の実施の形態と同様なので説明を省略する。
図14は、第2の実施の形態における演算装置1Aが有する機能を機能ブロックとして示した機能ブロック図である。第1の実施の形態との違いは、演算装置1Aが特徴情報算出部107をさらに備える点である。第1視差探索部103Aの動作は第1の実施の形態と同様である。候補算出部106の動作は後述するように第1の実施の形態と一部が異なる。
(8)演算装置1Aは、左画像21から特徴情報47を算出する特徴情報算出部107を備える。候補算出部106は、特徴情報算出部107が算出した特徴情報47に基づき、親ブロックの視差のみを用いて視差候補43aを決定するか否かを決定する。そのため、撮影した画像の特徴を利用して計算を削減できる。
上述した第2の実施の形態では、画像中の特徴情報としてエッジが用いられた。しかし特徴情報としてエッジの代わりにノイズを用いてもよい。特徴情報算出部107は、左画像21の細かい領域ごとにノイズレベルを評価し、領域ごとのノイズレベルの大きさを特徴情報47として候補算出部106に出力してもよい。ノイズの評価には既知の手法を用いることができ、たとえばRMS(root mean square)粒状度やウィーナースペクトルを用いて評価することができる。
(10)特徴情報47とは画像のノイズ情報である。候補算出部106は、親ブロックの領域におけるノイズレベルが所定の閾値よりも低い場合には親ブロックおよび隣接ブロックの視差を用いて視差候補43aを決定し、親ブロックの領域におけるノイズレベルが所定の閾値以上の場合には親ブロックの視差のみを用いて視差候補43aを決定する。そのためノイズが多く参照量を増やしても距離精度の改善が見込めない領域の計算量を削減できる。
第2の実施の形態において、演算装置1Aが粗距離画像41を生成する第2視差探索部を備えてもよい。この場合は、車両9は距離センサ5を備えなくてもよい。なお本変形例は、第2の実施の形態の構成と、第1の実施の形態の変形例1とを組み合わせてもよいことを明示するものである。
2…左カメラ
3…右カメラ
4…車両制御装置
5…距離センサ
9…車両
14…インタフェース
21…左画像
31…右画像
41…粗距離画像
43…視差候補a
43…全域視差候補
46…詳細距離画像
47…特徴情報
103A…第1視差探索部
103B…第2視差探索部
106…候補算出部
107…特徴情報算出部
121…視差テーブル
131…記憶部
Claims (11)
- 第1のブロック単位で視差を示す粗距離画像を格納する記憶部と、
第1のカメラで撮影して得られた画像である基準画像、および第2のカメラで撮影して得られた画像である参照画像を用いて、前記第1のブロック以下の大きさである第2のブロック単位で、前記第2のブロックごとに視差の候補である視差候補に基づき、前記基準画像における視差を算出して詳細な距離画像である詳細距離画像を生成する第1視差探索部と、
前記第1視差探索部が視差を算出する前記第2のブロックを含む前記第1のブロックの大きさを有する領域である親ブロックの視差、前記親ブロックに隣接する前記第1のブロックの大きさを有する領域である隣接ブロックの視差、および探索条件に基づき前記視差候補を算出する候補算出部とを備える演算装置。 - 請求項1に記載の演算装置において、
前記基準画像および前記参照画像を用いて前記粗距離画像を作成し前記記憶部に格納する第2視差探索部をさらに備える演算装置。 - 請求項1に記載の演算装置において、
前記粗距離画像を受信し前記記憶部に格納するインタフェースをさらに備える演算装置。 - 請求項1に記載の演算装置において、
前記候補算出部は、前記粗距離画像において前記親ブロックおよび前記隣接ブロックのそれぞれに設定されている視差を用いて前記視差候補を探索する演算装置。 - 請求項1に記載の演算装置において、
前記候補算出部は、前記粗距離画像において前記親ブロックおよび前記隣接ブロックのそれぞれに設定されている視差からいずれか1つの視差を選択し、前記選択した視差を用いて前記視差候補を探索する演算装置。 - 請求項1に記載の演算装置において、
前記基準画像および前記参照画像のいずれも、鉛直方向および水平方向に広がりのある3次元空間を撮影して得られた画像であり、
前記候補算出部は、3次元空間において前記親ブロックの水平方向に存在する前記第1のブロックを前記隣接ブロックとする演算装置。 - 請求項1に記載の演算装置において、
前記演算装置、前記第1のカメラ、および前記第2のカメラは車両に搭載され、
前記候補算出部は、前記車両の速度および前記親ブロックの視差に基づき、前記親ブロックの視差のみを用いて前記視差候補を決定するか、前記親ブロックおよび前記隣接ブロックの視差を用いて前記視差候補を決定するかを判断する演算装置。 - 請求項1に記載の演算装置において、
前記基準画像から特徴情報を算出する特徴情報算出部をさらに備え、
前記候補算出部は、前記特徴情報算出部が算出した前記特徴情報に基づき、前記親ブロックの視差のみを用いて前記視差候補を決定するか、前記親ブロックおよび前記隣接ブロックの視差を用いて前記視差候補を決定するかを判断する演算装置。 - 請求項8に記載の演算装置において、
前記特徴情報とは画像のエッジであり、
前記候補算出部は、前記親ブロックの領域が前記特徴情報算出部により算出されたエッジと重複する場合には前記親ブロックおよび前記隣接ブロックの視差を用いて前記視差候補を決定し、前記親ブロックの領域が前記特徴情報算出部により算出されたエッジと重複しない場合には前記親ブロックの視差のみを用いて前記視差候補を決定する演算装置。 - 請求項8に記載の演算装置において、
前記特徴情報とは画像のノイズ情報であり、
前記候補算出部は、前記親ブロックの領域におけるノイズレベルが所定の閾値よりも低い場合には前記親ブロックおよび前記隣接ブロックの視差を用いて前記視差候補を決定し、前記親ブロックの領域におけるノイズレベルが前記所定の閾値以上の場合には前記親ブロックの視差のみを用いて前記視差候補を決定する演算装置。 - 第1のブロック単位で視差を示す粗距離画像を格納する記憶部を備える演算装置が実行する視差算出方法であって、
第1のカメラで撮影して得られた画像である基準画像、および第2のカメラで撮影して得られた画像である参照画像を用いて、前記第1のブロック以下の大きさである第2のブロック単位で、前記第2のブロックごとに視差の候補である視差候補に基づき、前記基準画像における視差を算出して詳細な距離画像である詳細距離画像を生成することと、
視差の算出対象である前記第2のブロックを含む前記第1のブロックの大きさを有する領域である親ブロックの視差、前記親ブロックに隣接する前記第1のブロックの大きさを有する領域である隣接ブロックの視差、および探索条件に基づき前記視差候補を算出することとを含む視差算出方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019036151A JP7136721B2 (ja) | 2019-02-28 | 2019-02-28 | 演算装置、視差算出方法 |
PCT/JP2020/004342 WO2020175063A1 (ja) | 2019-02-28 | 2020-02-05 | 演算装置、視差算出方法 |
EP20762912.2A EP3933341B1 (en) | 2019-02-28 | 2020-02-05 | Computation device and parallax calculation method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019036151A JP7136721B2 (ja) | 2019-02-28 | 2019-02-28 | 演算装置、視差算出方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020140497A true JP2020140497A (ja) | 2020-09-03 |
JP7136721B2 JP7136721B2 (ja) | 2022-09-13 |
Family
ID=72238348
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019036151A Active JP7136721B2 (ja) | 2019-02-28 | 2019-02-28 | 演算装置、視差算出方法 |
Country Status (3)
Country | Link |
---|---|
EP (1) | EP3933341B1 (ja) |
JP (1) | JP7136721B2 (ja) |
WO (1) | WO2020175063A1 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023218844A1 (ja) * | 2022-05-10 | 2023-11-16 | 日立Astemo株式会社 | 画像処理装置及び画像処理方法 |
JP7438713B2 (ja) | 2019-10-28 | 2024-02-27 | キヤノン株式会社 | 撮像装置、方法及びプログラム |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011013064A (ja) * | 2009-07-01 | 2011-01-20 | Nikon Corp | 位置検出装置 |
TWI637350B (zh) * | 2018-01-09 | 2018-10-01 | 緯創資通股份有限公司 | 產生視差圖的方法及其影像處理裝置與系統 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7137298B2 (ja) | 2017-08-17 | 2022-09-14 | 株式会社富士通エフサス | 評価装置、評価方法および評価プログラム |
-
2019
- 2019-02-28 JP JP2019036151A patent/JP7136721B2/ja active Active
-
2020
- 2020-02-05 WO PCT/JP2020/004342 patent/WO2020175063A1/ja unknown
- 2020-02-05 EP EP20762912.2A patent/EP3933341B1/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011013064A (ja) * | 2009-07-01 | 2011-01-20 | Nikon Corp | 位置検出装置 |
TWI637350B (zh) * | 2018-01-09 | 2018-10-01 | 緯創資通股份有限公司 | 產生視差圖的方法及其影像處理裝置與系統 |
JP2019121349A (ja) * | 2018-01-09 | 2019-07-22 | 緯創資通股▲ふん▼有限公司Wistron Corporation | 視差マップを生成するための方法、画像処理デバイス、およびシステム |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7438713B2 (ja) | 2019-10-28 | 2024-02-27 | キヤノン株式会社 | 撮像装置、方法及びプログラム |
WO2023218844A1 (ja) * | 2022-05-10 | 2023-11-16 | 日立Astemo株式会社 | 画像処理装置及び画像処理方法 |
Also Published As
Publication number | Publication date |
---|---|
WO2020175063A1 (ja) | 2020-09-03 |
EP3933341A4 (en) | 2022-11-23 |
JP7136721B2 (ja) | 2022-09-13 |
EP3933341B1 (en) | 2024-05-22 |
EP3933341A1 (en) | 2022-01-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11635767B2 (en) | System and method of using multi-resolution camera clusters input data for controlling autonomous vehicles | |
US8224069B2 (en) | Image processing apparatus, image matching method, and computer-readable recording medium | |
US10477178B2 (en) | High-speed and tunable scene reconstruction systems and methods using stereo imagery | |
JP6561512B2 (ja) | 視差値導出装置、移動体、ロボット、視差値導出方法、視差値生産方法及びプログラム | |
JP6417886B2 (ja) | 視差値導出装置、移動体、ロボット、視差値生産方法、及びプログラム | |
JP5752618B2 (ja) | ステレオ視差算出装置 | |
US8416989B2 (en) | Image processing apparatus, image capture apparatus, image processing method, and program | |
US10977816B2 (en) | Image processing apparatus, image processing program, and driving assistance system | |
US9813694B2 (en) | Disparity value deriving device, equipment control system, movable apparatus, robot, and disparity value deriving method | |
WO2018147059A1 (ja) | 画像処理装置、および画像処理方法、並びにプログラム | |
JP7136721B2 (ja) | 演算装置、視差算出方法 | |
KR101875532B1 (ko) | 계층적 스테레오 매칭 장치 및 방법 | |
JP6494402B2 (ja) | 画像処理装置、撮像装置、画像処理方法、プログラム | |
JP6561511B2 (ja) | 視差値導出装置、移動体、ロボット、視差値生産導出方法、視差値の生産方法及びプログラム | |
JP6395429B2 (ja) | 画像処理装置、その制御方法及び記憶媒体 | |
JP2014142832A (ja) | 画像処理装置、画像処理装置の制御方法、およびプログラム | |
JP2020021126A (ja) | 画像処理装置およびその制御方法、距離検出装置、撮像装置、プログラム | |
JP6057629B2 (ja) | 画像処理装置、その制御方法、および制御プログラム | |
JP2019120590A (ja) | 視差値算出装置、視差値算出方法及びプログラム | |
JP6614824B2 (ja) | 画像処理装置、画像処理システム、撮像装置、画像処理方法およびプログラム | |
JP2016070774A (ja) | 視差値導出装置、移動体、ロボット、視差値生産方法、及びプログラム | |
JP6991700B2 (ja) | 情報処理装置、情報処理方法、プログラム | |
JP6604783B2 (ja) | 画像処理装置、撮像装置および画像処理プログラム | |
JP6351364B2 (ja) | 情報処理装置、情報処理方法およびプログラム | |
JP6655869B2 (ja) | 画像処理装置、画像処理方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210507 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220510 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220707 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220809 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220901 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7136721 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |