JPWO2017145605A1 - 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム - Google Patents
画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム Download PDFInfo
- Publication number
- JPWO2017145605A1 JPWO2017145605A1 JP2018501060A JP2018501060A JPWO2017145605A1 JP WO2017145605 A1 JPWO2017145605 A1 JP WO2017145605A1 JP 2018501060 A JP2018501060 A JP 2018501060A JP 2018501060 A JP2018501060 A JP 2018501060A JP WO2017145605 A1 JPWO2017145605 A1 JP WO2017145605A1
- Authority
- JP
- Japan
- Prior art keywords
- value
- image
- parallax
- pixels
- distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/251—Fusion techniques of input or preprocessed data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/34—Smoothing or thinning of the pattern; Morphological operations; Skeletonisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/584—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/166—Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20228—Disparity calculation for image-based rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30261—Obstacle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/12—Bounding box
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Signal Processing (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Traffic Control Systems (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
図1は、本発明の実施形態に係る移動体機器制御システムとしての車載機器制御システムの構成を示す図である。
図2は、撮像ユニット101及び画像解析ユニット102の構成を示す図である。
ステレオカメラ画像取得部130は、ステレオカメラを構成する2つの撮像部110a,110bから、輝度画像データを取得する。このとき、撮像部110a,110bがカラーの場合には、そのRGB信号から輝度信号(Y)を得るカラー輝度変換を、例えば下記の式〔1〕を用いて行う。
〈近距離処理〉
次に、図5を参照し、近距離処理部140の機能について説明する。図5は、近距離処理部140の機能ブロック図である。近距離処理部140は、近距離(自車両から所定距離内)の物体の検出や追跡を行う。近距離処理部140は、近距離視差画像生成部141、縮小視差画像生成部142、近距離物体検出部143、近距離物体棄却部144、近距離物体追跡部145を有する。
近距離視差画像生成部141は、例えば、処理ハードウェア部120の視差演算部121によって実現してもよい。
次に、縮小視差画像生成部142について説明する。縮小視差画像生成部142は、近距離視差画像生成部141により生成された、自車両から所定距離内に位置する物体に対する視差画像から、所定の間隔で画素を抽出することにより、縮小された(画素数が少ない)縮小視差画像を作成する。例えば1280×640画素の視差画像を、縦及び横に例えば1/10に縮小する場合、縮小視差画像は128×64画素となる。
近距離物体検出部143は、縮小視差画像生成部142により生成された、自車両から所定距離内に位置する物体に対する縮小視差画像に基づいて、物体を検出する。
近距離物体棄却部144は、近距離物体検出部143により検出されたオブジェクトのうち、トラッキングの対象としないオブジェクトのデータを棄却(破棄)する。
近距離物体追跡部145は、近距離物体検出部143により検出され、近距離物体棄却部144に棄却されなかったオブジェクトの追跡を行う。
次に、図10を参照し、図4の通常距離処理部150の機能について説明する。図10は、通常距離処理部150の機能ブロック図である。通常距離処理部150は、自車両から所定距離(例えば2m)以上である通常距離の物体の検出や追跡を行う。
視差画像生成部151は、例えば、処理ハードウェア部120の視差演算部121によって実現してもよい。
視差画像補間処理を行ったら、次に、Vマップ生成部152において、Vマップを生成するVマップ生成処理を実行する。視差画像データに含まれる各視差画素データは、x方向位置とy方向位置と視差値dとの組(x,y,d)で示される。これを、X軸にd、Y軸にy、Z軸に頻度fを設定した三次元座標情報(d,y,f)に変換したもの、又はこの三次元座標情報(d,y,f)から所定の頻度閾値を超える情報に限定した三次元座標情報(d,y,f)を、視差ヒストグラム情報として生成する。本実施形態の視差ヒストグラム情報は、三次元座標情報(d,y,f)からなり、この三次元ヒストグラム情報をX−Yの2次元座標系に分布させたものを、Vマップ(視差ヒストグラムマップ、V-disparity map)と呼ぶ。
次に、本実施形態では、Vマップ生成部152が生成したVマップの情報(視差ヒストグラム情報)から、路面形状検出部153において、自車両100の前方路面の3次元形状を検出する路面形状検出処理が実行される。
次に、路面高さテーブル算出部154において、路面高さ(自車の真下の路面部分に対する相対的な高さ)を算出してテーブル化する路面高さテーブル算出処理を行う。路面形状検出部153により生成されたVマップ上の近似直線の情報から、撮像画像上の各行領域(画像上下方向の各位置)に映し出されている各路面部分までの距離を算出できる。一方、自車の真下に位置する路面部分をその面に平行となるように自車進行方向前方へ延長した仮想平面の自車進行方向における各面部分が、撮像画像中のどの各行領域に映し出されるかは予め決まっており、この仮想平面(基準路面)はVマップ上で直線(基準直線)により表される。路面形状検出部153から出力される近似直線を基準直線と比較することで、自車前方の各路面部分の高さを得ることができる。簡易的には、路面形状検出部153から出力される近似直線上のY軸位置から、これに対応する視差値から求められる距離だけ自車前方に存在する路面部分の高さを算出できる。路面高さテーブル算出部154では、近似直線から得られる各路面部分の高さを、必要な視差範囲についてテーブル化する。
《Uマップ生成処理》
次に、Uマップ生成部155は、Uマップ(U-disparity map)を生成するUマップ生成処理として、頻度Uマップ生成処理及び高さUマップ生成処理を実行する。
次に、リアルUマップ生成部156について説明する。リアルUマップ生成部156では、リアルUマップ(Real U-disparity map)(「分布データ」の一例)を生成するUマップ生成処理として、リアル頻度Uマップ生成処理及びリアル高さUマップ生成処理を実行する。
次に、孤立領域検出部157について説明する。図17は、孤立領域検出部157で行う孤立領域検出処理の流れを示すフローチャートである。孤立領域検出部157では、まずリアルUマップ生成部156で生成されたリアル頻度Uマップの情報の平滑化を行う(ステップS111)。
次に、視差画像の対応領域検出部158及びオブジェクト領域抽出部159について説明する。図18は、孤立領域検出部で検出された孤立領域が内接する矩形領域を設定したリアル頻度Uマップを示す図であり、図19は、図18における矩形領域に対応する走査範囲を設定した視差画像を示す図であり、図20は、図19における走査範囲を探索してオブジェクト領域を設定した視差画像を示す図である。
次に、オブジェクトタイプ分類部160について説明する。
同様に、オブジェクト領域抽出部159で抽出されるオブジェクト領域の幅(xomax−xomin)から、下記の式〔6〕より、そのオブジェクト領域に対応する画像領域に映し出されている識別対象物(オブジェクト)の実際の幅Woを計算できる。
また、当該オブジェクト領域に対応する画像領域に映し出されている識別対象物(オブジェクト)の奥行きDoは、当該オブジェクト領域に対応した孤立領域内の最大視差dmaxと最小視差dminから、下記の式〔7〕より計算することができる。
オブジェクトタイプ分類部160は、このようにして計算できるオブジェクト領域に対応するオブジェクトの高さ、幅、奥行きの情報から、そのオブジェクトタイプの分類を行う。図22に示す表は、オブジェクトタイプの分類を行うためのテーブルデータの一例を示すものである。これによれば、自車両前方に存在する識別対象物(オブジェクト)が、歩行者なのか、自転車なのか、小型車なのか、トラックなどか等を区別して認識することが可能となる。
次に、3次元位置決定部161について説明する。検出されたオブジェクト領域に対応するオブジェクトまでの距離や、視差画像の画像中心と視差画像上のオブジェクト領域の中心との画像上の距離も把握されることから、オブジェクトの3次元位置を決定することができる。
Yo=Z×(region_centerY−image_centerY)/f …式〔9〕
《オブジェクトトラッキング》
次に、オブジェクトトラッキング部162について説明する。オブジェクトトラッキング部162は、オブジェクトデータリスト170を用いて、以前(過去)の視差画像のフレームから検出されたオブジェクト(物体)をトラッキング(追跡)する処理を実行する。
次に、オブジェクト選択部163について説明する。オブジェクト選択部163は、オブジェクトデータリスト170に保存されているオブジェクトについて、当該オブジェクトが追跡対象とするのにふさわしい位置にいるか等を判断基準にして、当該オブジェクトを追跡するか否かを選択する。具体的には、オブジェクトデータリスト170のオブジェクト予測データに基づいて当該オブジェクトが位置すると予測される視差画像データ中の予測範囲を設定し、その予測範囲内における当該オブジェクトの高さを特定した後、オブジェクトデータリスト170のオブジェクト特徴量を参照して、特定した高さから当該オブジェクトの幅を特定し、特定した幅から視差画像データ上におけるオブジェクトの横方向位置を推定する。このようにして推定したオブジェクトの横方向位置が所定の追跡対象条件(当該オブジェクトが画像内に存在する確度が高い位置である場合、当該オブジェクトが追跡対象とするのにふさわしい位置である場合等)を満たせば、当該オブジェクトを追跡対象として選択する。なお、オブジェクト選択部163は、追跡対象として選択しなかったオブジェクトのデータを、オブジェクトデータリスト170から削除してもよい。
次に、オブジェクトデータリスト170について説明する。オブジェクトデータリスト170は、例えば、一のフレームから検出された各オブジェクトのデータを、それ以降の複数のフレームに渡って追跡するために使用される。
ステレオカメラを用いて生成した視差画像において、自車両(ステレオカメラ)に近い距離に位置する物体に対する視差は大きいため、一方のカメラで撮像した画像における当該物体の画素の位置と、他方のカメラで撮像した画像における当該物体の画素の位置との距離は大きくなる。そのため、一方の画像の一の画素に対応する画素を他方の画像から探索する距離(当該一の画素の位置からの距離)が長くなり、視差画像を作る処理に時間がかかる。
100 自車両
101 撮像ユニット
102 画像解析ユニット(「画像処理装置」の一例)
103 表示モニタ
104 車両走行制御ユニット(「制御部」の一例)
110a,110b 撮像部
120 処理ハードウェア部
140 近距離処理部
141 近距離視差画像生成部(「生成部」の一例)
142 縮小視差画像生成部(「縮小部」の一例)
143 近距離検出部(「検出部」の一例)
144 近距離物体棄却部
145 近距離物体追跡部
151 視差画像生成部
152 Vマップ生成部
153 路面形状検出部
154 路面高さテーブル算出部
155 Uマップ生成部
156 リアルUマップ生成部
157 孤立領域検出部
158 対応領域検出部
159 オブジェクト領域抽出部
160 オブジェクトタイプ分類部
161 3次元位置決定部
162 オブジェクトトラッキング部
163 オブジェクト選択部
170 オブジェクトデータリスト
2 撮像装置
Claims (8)
- 複数の撮像部で各々撮影されたフレームに応じた、前記複数の撮像部から所定距離内に位置する物体の視差に応じた画素値を有する距離画像の画素数を縮小する縮小部と、
前記縮小された距離画像に基づいて、前記所定距離内に位置する物体を検出する検出部と、を備え、
前記縮小部は、前記距離画像から所定の間隔で画素を抽出し、当該抽出した画素の値が無効である場合、当該抽出した画素の周辺の画素の値に基づいて、当該抽出した画素の値を決定することを特徴とする画像処理装置。 - 前記縮小部は、当該抽出した画素の値が無限遠であることを示す値の場合、または繰り返しパターンであることを示す値である場合に、当該抽出した画素の値が無効であると判断することを特徴とする、請求項1記載の画像処理装置。
- 前記縮小部は、当該抽出した画素の周辺の複数の画素のうち、当該抽出した画素から近い順に周辺の画素の値を取得し、取得した画素の値が無効でない場合に、当該取得した画素の値を、当該抽出した画素の値とすることを特徴とする、請求項1または2記載の画像処理装置。
- 前記縮小部は、当該抽出した画素の周辺の複数の画素の平均値を、当該抽出した画素の値とすることを特徴とする、請求項1または2記載の画像処理装置。
- 複数の撮像部と、
前記複数の撮像部で各々撮影されたフレームに応じた、前記複数の撮像部から所定距離内に位置する物体の視差に応じた画素値を有する距離画像を生成する生成部と、
前記距離画像から所定の間隔で画素を抽出し、当該抽出した画素の値が無効である場合、当該抽出した画素の周辺の画素の値に基づいて、当該抽出した画素の値を決定し、前記距離画像の画素数を縮小する縮小部と、
前記縮小された距離画像に基づいて、前記所定距離内に位置する物体を検出する検出部と、を備えることを特徴とする撮像装置。 - 移動体に搭載され、前記移動体の前方を撮像する複数の撮像部と、
前記複数の撮像部で各々撮影されたフレームに応じた、前記複数の撮像部から所定距離内に位置する物体の視差に応じた画素値を有する距離画像を生成する生成部と、
前記距離画像から所定の間隔で画素を抽出し、当該抽出した画素の値が無効である場合、当該抽出した画素の周辺の画素の値に基づいて、当該抽出した画素の値を決定し、前記距離画像の画素数を縮小する縮小部と、
前記縮小された距離画像に基づいて、前記所定距離内に位置する物体を検出する検出部と、
前記検出部による検出結果に基づいて、前記移動体の制御を行う制御部と、
を備える移動体機器制御システム。 - 画像処理装置が、
複数の撮像部で各々撮影されたフレームに応じた、前記複数の撮像部から所定距離内に位置する物体の視差に応じた画素値を有する距離画像の画素数を縮小するステップと、
前記縮小された距離画像に基づいて、前記所定距離内に位置する物体を検出するステップと、を実行し、
前記縮小するステップは、前記距離画像から所定の間隔で画素を抽出し、当該抽出した画素の値が無効である場合、当該抽出した画素の周辺の画素の値に基づいて、当該抽出した画素の値を決定する、画像処理方法。 - 画像処理装置に、
複数の撮像部で各々撮影されたフレームに応じた、前記複数の撮像部から所定距離内に位置する物体の視差に応じた画素値を有する距離画像の画素数を縮小するステップと、
前記縮小された距離画像に基づいて、前記所定距離内に位置する物体を検出するステップと、を実行させ、
前記縮小するステップは、前記距離画像から所定の間隔で画素を抽出し、当該抽出した画素の値が無効である場合、当該抽出した画素の周辺の画素の値に基づいて、当該抽出した画素の値を決定するプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016030963 | 2016-02-22 | ||
JP2016030963 | 2016-02-22 | ||
PCT/JP2017/002067 WO2017145605A1 (ja) | 2016-02-22 | 2017-01-23 | 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2017145605A1 true JPWO2017145605A1 (ja) | 2018-12-13 |
JP6583527B2 JP6583527B2 (ja) | 2019-10-02 |
Family
ID=59686134
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018501060A Active JP6583527B2 (ja) | 2016-02-22 | 2017-01-23 | 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US11064177B2 (ja) |
EP (1) | EP3422285A4 (ja) |
JP (1) | JP6583527B2 (ja) |
WO (1) | WO2017145605A1 (ja) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6705497B2 (ja) | 2016-02-23 | 2020-06-03 | 株式会社リコー | 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、プログラム、及び移動体 |
EP3422289A4 (en) * | 2016-02-23 | 2019-02-27 | Ricoh Company, Ltd. | IMAGE PROCESSING DEVICE, IMAGING DEVICE, MOBILE ENTITY DEVICE CONTROL SYSTEM, IMAGE PROCESSING METHOD, AND PROGRAM |
EP3432265A4 (en) * | 2016-03-14 | 2019-03-20 | Ricoh Company, Ltd. | IMAGE PROCESSING DEVICE, DEVICE CONTROL SYSTEM, IMAGE CAPTURE DEVICE, IMAGE PROCESSING METHOD, AND PROGRAM |
JP6794243B2 (ja) * | 2016-12-19 | 2020-12-02 | 日立オートモティブシステムズ株式会社 | 物体検出装置 |
US10347030B2 (en) | 2017-05-15 | 2019-07-09 | Envisics Ltd | Adjusting depth of augmented reality content on a heads up display |
JP7308112B2 (ja) * | 2019-09-19 | 2023-07-13 | 京セラ株式会社 | 物体検出装置、物体検出システム、移動体及び物体検出方法 |
JP7308115B2 (ja) * | 2019-09-24 | 2023-07-13 | 京セラ株式会社 | 物体検出装置、物体検出システム、移動体及び物体検出方法 |
CN110866881B (zh) * | 2019-11-15 | 2023-08-04 | RealMe重庆移动通信有限公司 | 图像处理方法及装置、存储介质和电子设备 |
US11343485B1 (en) * | 2020-08-24 | 2022-05-24 | Ambarella International Lp | Virtual horizontal stereo camera |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005211488A (ja) * | 2004-01-30 | 2005-08-11 | Canon Inc | 画像処理方法及び装置 |
JP2008039491A (ja) * | 2006-08-02 | 2008-02-21 | Fuji Heavy Ind Ltd | ステレオ画像処理装置 |
JP2008158946A (ja) * | 2006-12-26 | 2008-07-10 | Fuji Heavy Ind Ltd | 画像処理システム |
WO2011105388A1 (ja) * | 2010-02-24 | 2011-09-01 | 株式会社 日立メディコ | X線画像診断装置、医用画像処理プログラム及び方法 |
JP2013178664A (ja) * | 2012-02-28 | 2013-09-09 | Fuji Heavy Ind Ltd | 車外環境認識装置 |
JP2014032444A (ja) * | 2012-08-01 | 2014-02-20 | Asia Air Survey Co Ltd | 低解像度画像生成方法及び低解像度画像生成装置及びそのプログラム |
JP2014119859A (ja) * | 2012-12-14 | 2014-06-30 | Fuji Heavy Ind Ltd | 画像処理装置 |
US20160014406A1 (en) * | 2014-07-14 | 2016-01-14 | Sadao Takahashi | Object detection apparatus, object detection method, object detection program, and device control system mountable to moveable apparatus |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1139596A (ja) | 1997-07-17 | 1999-02-12 | Fuji Heavy Ind Ltd | 車外監視装置 |
JP2007172035A (ja) * | 2005-12-19 | 2007-07-05 | Fujitsu Ten Ltd | 車載画像認識装置、車載撮像装置、車載撮像制御装置、警告処理装置、画像認識方法、撮像方法および撮像制御方法 |
JP4166253B2 (ja) * | 2006-07-10 | 2008-10-15 | トヨタ自動車株式会社 | 物体検出装置、物体検出方法、および物体検出用プログラム |
WO2011108277A1 (ja) * | 2010-03-05 | 2011-09-09 | パナソニック株式会社 | 立体撮像装置および立体撮像方法 |
EP2538242B1 (en) * | 2011-06-24 | 2014-07-02 | Softkinetic Software | Depth measurement quality enhancement. |
JP5680573B2 (ja) * | 2012-01-18 | 2015-03-04 | 富士重工業株式会社 | 車両の走行環境認識装置 |
JP2013162333A (ja) * | 2012-02-06 | 2013-08-19 | Sony Corp | 画像処理装置、画像処理方法、プログラムおよび記録媒体 |
CN104106102A (zh) * | 2012-02-10 | 2014-10-15 | 丰田自动车株式会社 | 警报装置 |
JP6051608B2 (ja) * | 2012-06-19 | 2016-12-27 | 市光工業株式会社 | 車両周辺対象物検出装置 |
KR101364860B1 (ko) * | 2012-09-03 | 2014-02-20 | 강원대학교산학협력단 | 입체 영상의 입체감 향상을 위한 입체 영상 변환 방법 및 이를 기록한 기록매체 |
JP5981353B2 (ja) * | 2013-01-09 | 2016-08-31 | シャープ株式会社 | 3次元計測装置 |
US10079827B2 (en) | 2015-03-16 | 2018-09-18 | Ricoh Company, Ltd. | Information processing apparatus, information processing method, and information processing system |
JP6677474B2 (ja) * | 2015-09-29 | 2020-04-08 | 日立オートモティブシステムズ株式会社 | 周辺認識装置 |
-
2017
- 2017-01-23 EP EP17756047.1A patent/EP3422285A4/en active Pending
- 2017-01-23 JP JP2018501060A patent/JP6583527B2/ja active Active
- 2017-01-23 WO PCT/JP2017/002067 patent/WO2017145605A1/ja active Application Filing
-
2018
- 2018-08-20 US US16/105,437 patent/US11064177B2/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005211488A (ja) * | 2004-01-30 | 2005-08-11 | Canon Inc | 画像処理方法及び装置 |
JP2008039491A (ja) * | 2006-08-02 | 2008-02-21 | Fuji Heavy Ind Ltd | ステレオ画像処理装置 |
JP2008158946A (ja) * | 2006-12-26 | 2008-07-10 | Fuji Heavy Ind Ltd | 画像処理システム |
WO2011105388A1 (ja) * | 2010-02-24 | 2011-09-01 | 株式会社 日立メディコ | X線画像診断装置、医用画像処理プログラム及び方法 |
JP2013178664A (ja) * | 2012-02-28 | 2013-09-09 | Fuji Heavy Ind Ltd | 車外環境認識装置 |
JP2014032444A (ja) * | 2012-08-01 | 2014-02-20 | Asia Air Survey Co Ltd | 低解像度画像生成方法及び低解像度画像生成装置及びそのプログラム |
JP2014119859A (ja) * | 2012-12-14 | 2014-06-30 | Fuji Heavy Ind Ltd | 画像処理装置 |
US20160014406A1 (en) * | 2014-07-14 | 2016-01-14 | Sadao Takahashi | Object detection apparatus, object detection method, object detection program, and device control system mountable to moveable apparatus |
Also Published As
Publication number | Publication date |
---|---|
US20190014302A1 (en) | 2019-01-10 |
WO2017145605A1 (ja) | 2017-08-31 |
EP3422285A1 (en) | 2019-01-02 |
US11064177B2 (en) | 2021-07-13 |
JP6583527B2 (ja) | 2019-10-02 |
EP3422285A4 (en) | 2019-03-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10984509B2 (en) | Image processing apparatus, imaging device, moving body device control system, image information processing method, and program product | |
JP6583527B2 (ja) | 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム | |
JP6705496B2 (ja) | 画像処理装置、撮像装置、移動体機器制御システム、移動体、画像処理方法、及びプログラム | |
JP6657789B2 (ja) | 画像処理装置、撮像装置、機器制御システム、頻度分布画像生成方法、及びプログラム | |
JP6662388B2 (ja) | 画像処理装置、撮像装置、機器制御システム、分布データ生成方法、及びプログラム | |
WO2017130640A1 (ja) | 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム | |
JP2015207281A (ja) | 立体物検出装置、立体物検出方法、立体物検出プログラム、及び移動体機器制御システム | |
JP6705497B2 (ja) | 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、プログラム、及び移動体 | |
JP6340850B2 (ja) | 立体物検出装置、立体物検出方法、立体物検出プログラム、及び移動体機器制御システム | |
US11691585B2 (en) | Image processing apparatus, imaging device, moving body device control system, image processing method, and program product | |
JP2017162116A (ja) | 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム | |
JP6972797B2 (ja) | 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法、及びプログラム | |
JP6340849B2 (ja) | 画像処理装置、画像処理方法、画像処理プログラム、及び移動体機器制御システム | |
JP2018088234A (ja) | 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法、及びプログラム | |
JP6812701B2 (ja) | 画像処理装置、移動体機器制御システム、画像処理方法、及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A524 | Written submission of copy of amendment under article 19 pct |
Free format text: JAPANESE INTERMEDIATE CODE: A527 Effective date: 20180813 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180813 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190806 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190819 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6583527 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |