JP2015075966A - 画像処理装置、画像処理方法、及び、プログラム - Google Patents

画像処理装置、画像処理方法、及び、プログラム Download PDF

Info

Publication number
JP2015075966A
JP2015075966A JP2013212337A JP2013212337A JP2015075966A JP 2015075966 A JP2015075966 A JP 2015075966A JP 2013212337 A JP2013212337 A JP 2013212337A JP 2013212337 A JP2013212337 A JP 2013212337A JP 2015075966 A JP2015075966 A JP 2015075966A
Authority
JP
Japan
Prior art keywords
vehicle
image processing
coordinate system
axis
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013212337A
Other languages
English (en)
Other versions
JP6149676B2 (ja
Inventor
清水 誠也
Seiya Shimizu
誠也 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2013212337A priority Critical patent/JP6149676B2/ja
Priority to US14/463,793 priority patent/US20150098623A1/en
Priority to EP14182461.5A priority patent/EP2863365A3/en
Publication of JP2015075966A publication Critical patent/JP2015075966A/ja
Application granted granted Critical
Publication of JP6149676B2 publication Critical patent/JP6149676B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

【課題】自車両の周辺物体の形状を容易に把握することを可能とする画像処理装置、画像処理方法、及び、プログラムを提供する。
【解決手段】車両に搭載されているカメラにより撮像された画像と、車両に搭載されている距離センサにより算出された周辺物体上の計測点までの距離と、に基づいて、車両の周辺環境を再構築した仮想的な3次元空間を描画する画像処理装置であって、車両座標系で定義されている複数のグリット面と周辺物体との交線を算出する交線算出部47と、交線算出部47により算出された交線を仮想的な3次元空間内に配置されている対応する周辺物体上に描画する画像処理部48と、を備えている。
【選択図】図17

Description

本発明は、画像処理装置、画像処理方法、及び、プログラムに関する。
車両に配置されている複数のカメラで撮像した画像を合成し、車両周辺の全周囲画像を作成する方法が各種提案されている(例えば、特許文献1)。
この場合、路面付近については少ない歪みで表示することができるが、路面から離れるにつれて周辺物体は歪んでしまい、距離感が損なわれてしまう。この原因は、道路平面(又は、道路平面と背景)を模した立体投影面上に、周辺物体の映像を射影して表示することにある。
この問題は、車両に配置されている距離センサで周辺物体までの距離を計測し、計測結果に基づいて物体形状を模した投影面を正しい位置に作成し、物体形状を模した投影面に周辺物体の映像を投影することで解決することが可能である。
特開2010−999724号公報
しかしながら、全周囲画像上では背景と周辺物体との境界は、投影した被写体の画素値(色)によって把握することになるため、被写体の輝度が低い場合や前後関係にある周辺物体の画素値が似通っている場合などには、運転手は周辺物体の形状認識や距離感の把握が困難になるといった問題が生じてしまう。
一つの側面では、本発明は、自車両の周辺物体の形状を容易に把握することを可能とする画像処理装置、画像処理方法、及び、プログラムを提供することを課題とする。
一態様に係る画像処理装置は、車両に搭載されているカメラにより撮像された画像と、前記車両に搭載されている距離センサにより算出された周辺物体上の計測点までの距離と、に基づいて、前記車両の周辺環境を再構築した仮想的な3次元空間を描画する画像処理装置であって、前記車両を基準とする座標系である車両座標系で定義されている複数のグリット面と前記周辺物体との交差断面の外郭線を算出する外郭線算出手段と、前記外郭線算出手段により算出された前記外郭線を前記仮想的な3次元空間内に配置されている対応する周辺物体上に描画する画像処理手段と、を備え、前記複数のグリット面は、前記車両座標系のX軸に対して垂直な平面と、前記車両座標系のY軸に対して垂直な平面と、前記車両座標系のZ軸に対して垂直な平面と、により構成されている、ことを特徴とする。
周辺物体の形状の把握が容易となり、運転手は車両周辺の状況を的確に把握することが可能となる。これにより、安全運転に寄与できる。
実施形態1における車載システムの構成例を示す図である。 (A)と(B)は、いずれも、車両座標系を説明するための図である。 カメラとレンジセンサの配置例を示す図である。 カメラ座標系を説明するための図である。 図5A〜Eは、いずれも、カメラの配置パラメータについて説明するための図である。 可視化のための立体投影面の例を示す図である。 立体投影面における車両座標系とカメラ座標系との関係を示す図である。 (A)と(B)は、いずれも、カメラ座標系での入射光ベクトルとカメラ画像上の画素位置との関係を説明するための図である。 立体投影面を構成する3次元ポリゴンをテクスチャ付き描画して可視化した結果の例を示す図である。 レンジセンサ座標系を説明するための図である。 実施形態1における立体点群データの抽出方法を説明するための図である。 3次元ポリゴンにより構成されている計測物体の形状を模した物体投影面の例を示す図である。 ポリゴンデータとして登録されるための条件を説明するための図である。 実施形態1における車両座標系でのグリット面(Y軸、Z軸)の例を示す図である。 Z軸グリット面を例にしたグリット面との交線の算出方法を説明するための図である。 実施形態1における画像処理の結果の例を示す図である。 実施形態1における車載装置の構成例を示す機能ブロック図である。 実施形態1における画像処理のフローを説明するためのフローチャートの例である。 実施形態2における車載システムの構成例を示す機能ブロック図である。 実施形態2における画像処理のフローを説明するためのフローチャートの例の一部である。 実施形態3における車載システムの構成例を示す機能ブロック図である。 実施形態3における画像処理のフローを説明するためのフローチャートの例の一部である。 実施形態における車載システムのハードウェア構成の例を示す図である。
以下に本発明の実施の形態について図面を参照しながら詳細に説明する。
(実施形態1)
図1は、本実施形態1における車載システム1の構成例を示す図である。車載システム1は、図1に示すように、画像処理装置である車載装置2と、複数のカメラ3と、複数のレンジセンサ4と、を備えて構成されている。車載装置2には、図1に示すように、複数のカメラ3と、複数のレンジセンサ4と、が接続されている。
カメラ3は、CCD(Charge Coupled Device)、CMOS(Complementary Metal-Oxide Semiconductor)、MOS(Metal-Oxide Semiconductor)などの撮像素子などで構成され、例えば、30fps(frame per second)の頻度で車両周辺を撮像し、撮像した画像を後述の画像バッファ11に順次格納する。
レンジセンサ4は、例えば、スキャナ式の測域センサであり、3次元空間を2次元スキャンするレーザーレーダである。レンジセンサ4は、レーザー光を間欠的に発光させ、計測対象の物体からの反射光が戻ってくるまでのレーザー光の飛行時間(TOF:Time Of Flight)を距離D(m,n)に変換する。レンジセンサ4は、例えば、10〜30fpsの頻度で車両周辺の物体上の計測点までの距離D(m,n)を計測し、計測した距離D(m,n)を車載装置2に送信する。この際、距離D(m,n)と共に、スキャン方向を示す方向情報が送信される。
車載装置2の詳細については後述するものとし、本実施形態1におけるアルゴリズムについて、流れに沿って説明する。
まず、図2乃至5を参照して、車両座標系CCARとカメラ座標系CCAMについて説明する。
図2Aと図2Bは、いずれも、車両座標系CCARを説明するための図である。車両座標系CCARは、車両を基準として周辺物体の位置を座標で表した、車両固有の座標系であり、車両が移動することで、周辺物体の位置座標は変化する。車両座標系CCARを、どのように設定するかは任意であるが、本実施形態1においては、図2に示すように、平面図における車両の中心であり路面上の点を原点O、車両の前後方向をY軸(前方方向をプラス)、車両の左右方向をX軸(右方向をプラス)、車両の垂直方向をZ軸(上方向をプラス)とする。
図3は、車載装置2に接続されているカメラ3とレンジセンサ4の配置例を示す図である。図3に示す配置例では、車両前方を撮像範囲とするカメラ3Fが車両のフロント部に、車両後方を撮像範囲とするカメラ3Bが車両のリア部に、車両右側を撮像範囲とするカメラ3Rと車両左側を撮像範囲とするカメラ3Lが左右のドアミラー周辺部に、それぞれ、配置され、これらの4台のカメラ3により車両の全周囲を撮像可能となっている。同様に、車両前方をスキャン範囲とするレンジセンサ4Fが車両のフロント部に、車両後方をスキャン範囲とするレンジセンサ4Bが車両のリア部に、車両右側をスキャン範囲とするレンジセンサ4Rと車両左側をスキャン範囲とするレンジセンサ4Lが左右のドアミラー周辺部に、それぞれ、配置され、これらの4台のレンジセンサ4により車両の全周囲をスキャン可能となっている。
図4は、カメラ座標系CCAMを説明するための図である。カメラ座標系CCAMは、カメラ3を基準として被写体となる周辺物体の位置を座標で表した、カメラ3固有の座標系である。カメラ座標系CCAMを、どのように設定するかは任意であるが、本実施形態1においては、図4に示すように、カメラ3の光学原点を原点O、光軸に対して水平方向に直交する方向をX軸(光軸方向に対して右方向をプラス)、光軸に対して垂直方向に直交する方向をY軸(上方向をプラス)、光軸をZ軸(光軸方向とは逆方向をプラス)とする。視体積31は、カメラ3の撮像範囲を示している。
図5A〜Eは、いずれも、カメラ3の配置パラメータについて説明するための図である。カメラ3の配置パラメータは、少なくとも、車両座標系CCARにおけるカメラ3の配置位置を表す3次元座標(Tx,Ty,Tz)と配置角度(Pan,Tilt,Rotate)とを含んでおり、この配置パラメータに基づいて、カメラ3の配置位置を一意的に定義することが可能である。
配置パラメータのRotateは、図5Aに示すように、車両座標系CCARとカメラ座標系CCAMとが一致する状態をカメラ配置の初期状態とし、図5Bに示すように、カメラ3が角度Rotateだけ光軸(Z軸)回りで回転させられていることを示している(RotZ(Rotate))。また、配置パラメータのTiltは、図5Cに示すように、カメラ3が角度(π/2−Tilt)だけX軸回りで回転させられていることを示している(RotX(π/2−Tilt))。すなわち、この変換により、水平方向で0、見下ろす方向でプラスとなるように定義されている俯角(Tilt)は、真下方向からの仰角に変換される。
また、配置パラメータのPanは、図5Dに示すように、カメラ3が角度PanだけZ軸回りで左又は右に振られていることを示している(RotZ(Pan))。また、配置パラメータの3次元座標(Tx,Ty,Tz)は、図5Eに示すように、配置角度(Pan,Tilt,Rotate)に従ってカメラ3の配置角度を調整した後に、カメラ3を3次元座標(Tx,Ty,Tz)に平行移動することで(Translate(Tx,Ty,Tz))、カメラ3の配置状態となることを示している。
配置パラメータは、カメラ3の配置位置を一意的に定義するものであると同時に、車両座標系CCARとカメラ座標系CCAMとの間の座標変換を定義するものでもある。図5A〜Eの関係より、車両座標系CCARからカメラ座標系CCAMへの座標変換行列MCAR→CAMを式(1)で表すことができる。
ここで、cp=cos(Pan)、sp=sin(Pan)、ct=cos(Tilt)、st=sin(Tilt)、cr=cos(Rotate)、sr=sin(Rotate)とした場合、
11=cr×cp−sr×st×sp
12=cr×sp+sr×st×cp
13=sr×ct
21=−sr×cp−cr×st×sp
22=−sr×sp+cr×st×cp
23=cr×ct
31=ct×sp
32=−ct×cp
33=st
である。
次に、図6乃至図9を参照して、カメラ3により撮像された画像に基づく、自車両全周囲の状況の可視化方法について説明する。
図6は、可視化のための立体投影面の例を示す図である。カメラ3により撮像された画像に基づいて、自車両全周囲の状況を可視化するために、図6に例示するような、自車両周辺の道路平面や周辺物体などを模した仮想的な立体投影面を設定する。本実施形態1における立体投影面は、図6に示すように、3次元ポリゴン(投影面ポリゴンともいう)Pである微小平面によって構成されている。
そして、設定した立体投影面に、カメラ3により撮像された画像を投影し、任意の可視化視点から描画することで自車両全周囲の状況を可視化する。
立体投影面へのカメラ画像の投影は、立体投影面を構成する3次元ポリゴンPの各頂点(以下、ポリゴン頂点という)に対して、対応するカメラ画像上の画素位置をテクスチャ座標Qとして定義することに相当する。
図7は、立体投影面における車両座標系CCARとカメラ座標系CCAMとの関係を示す図である。図中のCは、ポリゴン頂点の車両座標系CCARでの座標を示しており、車両座標系CCARでのポリゴン頂点座標Cは、上述の式(1)に従って、カメラ座標系CCAMでのポリゴン頂点座標Cに変換することができる。
図8Aと図8Bは、いずれも、カメラ座標系CCAMでの入射光ベクトルIとカメラ画像上の画素位置との関係を説明するための図である。図8Aの図中のIは、カメラ座標系CCAMでのポリゴン頂点座標Cからカメラ3の光学原点への入射光ベクトルを示しており、カメラ座標系CCAMでの光学原点は原点Oと一致していることから、入射光ベクトルIは、式(3)のように表すことができる。
したがって、ポリゴン頂点に対応するカメラ画像上の画素位置の座標(テクスチャ座標)Qは、入射光ベクトルIを用いて、式(4)のように表すことができる。
ここで、式(4)中のTは、各ポリゴン頂点に対応する入射光ベクトルIとカメラ画像上の画素位置とを1対1で対応付けるマッピングテーブルであり、マッピングテーブルTは、レンズの歪みを示すデータとカメラパラメータとに基づいて、予め設定可能である。
以上のようにして、立体投影面を構成する全ての3次元ポリゴンPのポリゴン頂点に対して、対応する画素位置の座標(テクスチャ座標)Qを算出した後に、カメラ画像をテクスチャ画像として可視化する。この可視化は、図9に例示するように、例えば、3次元CG(Computer Graphics)処理により実現することができる。なお、図9は、立体投影面を構成する3次元ポリゴンPをテクスチャ付き描画して可視化した結果の例を示す図である。
次に、図10を参照して、レンジセンサ座標系CSNSRについて説明する。図10は、レンジセンサ座標系CSNSRを説明するための図である。
レンジセンサ座標系CSNSRは、レンジセンサ4を基準としてスキャン対象となる周辺物体の位置を座標で表した、レンジセンサ4固有の座標系である。レンジセンサ座標系CSNSRを、どのように設定するかは任意であるが、本実施形態1においては、図10に示すように、レンジセンサ4のセンサ原点を原点O、レンジセンサ4の前後方向をZ軸(後方向をプラス)、Z軸に対して水平方向に直交する方向をX軸(レンジセンサ4の前方向に対して右方向をプラス)、Z軸に対して垂直方向に直交する方向をY軸(上方向をプラス)とする。
図10の図中の矢印は、スキャンの順番を示しており、図10の例では、水平方向については、センサ原点から見て左側から右側へ順番にM回スキャンし、垂直方向については、スキャン範囲の上端から下端へ順番にN回スキャン角度を変更する場合を示している。すなわち、図10の例では、レンジセンサ4は、スキャン範囲に対して、M×Nの距離計測を行っている。
ここで、(m,n)番目の距離計測時におけるスキャン方向(レーザー光の照射方向)を表す単位ベクトルを、スキャンベクトルV(m,n)とする。この場合、スキャンベクトルV(m,n)とスキャンベクトルV(m,n)の方向の物体上の計測点までの距離D(m,n)とを用いて、レンジセンサ座標系CSNSRでの計測点の座標(以下、計測点座標という)PSNSR(m,n)は、式(5)のように表すことができる。なお、各スキャン方向に対応するM×N個のスキャンベクトルV(m,n)は、レンジセンサ4固有のテーブル(以下、スキャンベクトルテーブルTという)として予め設定可能である。
ここで、カメラ3と同様に、レンジセンサ4の配置パラメータが、車両座標系CCARにおけるレンジセンサ4の配置位置を表す3次元座標(Tx,Ty,Tz)と配置角度(Pan,Tilt,Rotate)であるとすると、車両座標系CCARからレンジセンサ座標系CSNSRへの座標変換行列MCAR→SNSRは、式(6)のように表すことができる。
したがって、レンジセンサ座標系CSNSRでの計測点座標PSNSR(m,n)を、式(7)に従って、車両座標系CCARでの計測点座標PCAR(m,n)に変換することができる。
次に、このようにして車両座標系CCARの座標に変換した計測点座標PCAR(m,n)を、図11に例示するように、道路平面上の計測点に対応する座標の集合(以下、道路平面点群データという)PG1と、それ以外の計測点に対応する座標の集合(以下、立体点群データという)PG2と、に分類し、道路平面点群データPG1に属する計測点座標PCAR(m,n)を除外する。このように構成することで、処理対象を削減し、処理速度を向上せることが可能となる。なお、図11は、本実施形態1における立体点群データPG2の抽出方法を説明するための図である。
道路平面点群データPG1と立体点群データPG2との分類は、車両座標系CCARの原点Oは道路平面上の点であることから、例えば、計測点座標PCAR(m,n)のZ座標の座標値の絶対値が、予め設定されている閾値(例えば、5cm)以下の計測点座標PCAR(m,n)を道路平面点群データPG1として分類することで実現する。
次に、立体点群データPG2に属する計測点座標PCAR(m,n)に基づいて、計測物体の形状を模した投影面(以下、物体投影面という)を生成する。本実施形態1における物体投影面は、図12に例示するように、3次元ポリゴンPにより構成されている。なお、図12は、3次元ポリゴンPにより構成されている計測物体の形状を模した物体投影面の例を示す図である。
ここで、レンジセンサ4が、図10に例示した順番で計測点をスキャンするものとすると、計測点座標PCAR(m,n)で表される計測点に隣接する計測点の座標は、PCAR(m−1,n−1)、PCAR(m,n−1)、PCAR(m+1,n−1)、PCAR(m−1,n)、PCAR(m+1,n)、PCAR(m−1,n+1)、PCAR(m,n+1)、PCAR(m+1,n+1)である。
ここで、PCAR(m,n)、PCAR(m,n+1)、PCAR(m+1,n+1)を頂点の座標とする三角形が、物体投影面を構成する3次元ポリゴンPであるためには、PCAR(m,n)、PCAR(m,n+1)、PCAR(m+1,n+1)で表される3点が、いずれも、同一の計測物体上の点でなければならない。なぜなら、3点が同一の計測物体上に無い場合、例えば、図11を参照して、3点の内の2点が、歩行者上の点であり、残りの1点が、当該歩行者より後ろに存在する壁面(不図示)上の点である場合に、3点を頂点とする三角形を3次元ポリゴンPとすることは、歩行者と壁面との間に、本来存在しない物体の投影面を発生させることになるからである。
そこで、このような不都合を回避するための処理を行う。図13は、ポリゴンデータPDとして登録されるための条件を説明するための図である。三角形の各頂点を、図13に示すように、それぞれ、P、P、Pと、便宜的に置き換えた場合、三角形の重心座標g012は、式(8.1)で表すことができる。
また、三角形の重心座標g012を始点とする単位法線ベクトルn012は、式(8.2)で表すことができる。
また、三角形の各頂点を計測したレンジセンサ4の車両座標系CCARでのセンサ原点座標をS=(Tx,Ty,Tz)とした場合に、三角形の重心座標g012を始点とするセンサ原点座標Sへの単位方向ベクトルv012は、式(8.3)で表すことができる。
この場合、P、P、Pを頂点とする三角形(以下、三角形{P,P,P}という)が、式(8.4)を満たす場合に、三角形{P,P,P}を、物体投影面を構成する3次元ポリゴンPとみなし、ポリゴンデータPDに登録する。
ここで、“・”は、ベクトルの内積を示している。つまり、図13を参照して、単位法線ベクトルn012と単位方向ベクトルv012とがなす角度をθとした場合、式(8.4)を満たすことは、θ≦角度閾値であることを意味している。
次に、このようにしてポリゴンデータPDに登録された3次元ポリゴンPに対して、{X軸,Y軸,Z軸}グリット面との交線(グリット線ともいう)を算出する。ここで、{X軸,Y軸,Z軸}グリット面は、それぞれ独立しているX軸グリット面とY軸グリット面とZ軸グリット面を、便宜的に一括で示している。X軸グリット面、Y軸グリット面、Z軸グリット面は、図14に示すように、それぞれ、車両座標系CCARのX軸、Y軸、Z軸に垂直な複数の平面であり、X軸グリット面を構成する各平面はSTEPの均等間隔で、Y軸グリット面を構成する各平面はSTEPの均等間隔で、Z軸グリット面を構成する各平面はSTEPの均等間隔で、配置されているものとする。なお、図14は、本実施形態1における車両座標系CCARでのグリット面(Y軸、Z軸)の例を示す図である。
{X軸,Y軸,Z軸}グリット面が上述のように構成されている場合において、三角形{P,P,P}が3次元ポリゴンPとしてポリゴンデータPDに登録されているとすると、3次元ポリゴンPである三角形{P,P,P}に対する{X軸,Y軸,Z軸}グリット面との交線を、以下に示す処理(ステップ1−1乃至ステップ1−3)に従って算出することができる。
<ステップ1−1>
三角形{P,P,P}の頂点P、P、Pを{X,Y,Z}座標値の降順にソートし、ソート結果をPA{X,Y,Z}、PB{X,Y,Z}、PC{X,Y,Z}とする。なお、PA{X,Y,Z}は、X座標値の降順にソートした場合のPAX、Y座標値の降順にソートした場合のPAY、Z座標値の降順にソートした場合のPAZ、を便宜的に一括で示している。PB{X,Y,Z}、PC{X,Y,Z}についても同様である。
<ステップ1−2>
式(9.1)乃至式(9.3)に従って、[PA{X,Y,Z}]、[PB{X,Y,Z}]、[PC{X,Y,Z}]をSTEP{X,Y,Z}で割って算出した値の整数部NA{X,Y,Z}、NB{X,Y,Z}、NC{X,Y,Z}をそれぞれ算出する。
なお、[PA{X,Y,Z}]は、PAXのX座標値、PAYのY座標値、PAZのZ座標値を、便宜的に一括で示している。[PB{X,Y,Z}]と[PC{X,Y,Z}]についても同様である。また、STEP{X,Y,Z}は、STEP、STEP、STEPを便宜的に一括で示している。また、整数部NA{X,Y,Z}は、PAXのX座標値をSTEPで割って算出した値の整数部NAX、PAYのY座標値をSTEPで割って算出した値の整数部NAY、PAZのZ座標値をSTEPで割って算出した値の整数部NAZを、便宜的に一括で示している。整数部NB{X,Y,Z}と整数部NC{X,Y,Z}についても同様である。また、ROUNDDOWNは、小数点以下を切捨てる関数であり、例えば、ROUNDDOWN(1.23)=1である。
<ステップ1−3>
X座標値の降順にソートした場合の整数部NAX、NBX、NCXにおいて、(A)NAX≠NBX、且つ、NBX=NCXの場合は、図15に例示する線分Lを算出し、算出した線分LをX軸グリット面との交線として座標情報をグリットデータGDに登録し、(B)NAX=NBX、且つ、NBX≠NCXの場合は、図15に例示する線分Lを算出し、算出した線分LをX軸グリット面との交線として座標情報をグリットデータGDに登録し、(C)(A)と(B)以外の場合は、X軸グリット面との交線のグリットデータGDへの登録を行わない。
同様にして、Y座標値の降順にソートした場合の整数部NAY、NBY、NCYにおいて、Y軸グリット面との交線の登録処理を行い、Z座標値の降順にソートした場合の整数部NAZ、NBZ、NCZにおいて、Z軸グリット面との交線の登録処理を行う。
なお、図15は、三角形{P,P,P}の頂点P、P、PをZ座標値の降順にソートした場合を例示であり、Z軸グリット面を例にしたグリット面との交線の算出方法を説明するための図である。以下において、図15に例示するように、XY平面に平行なZ軸グリット面z=NAZ×STEPと三角形{PAZ,PBZ,PCZ}との2つの交点の内で、左側の交点をL、右側の交点をRとし、XY平面に平行なZ軸グリット面z=NBZ×STEPと三角形{PAZ,PBZ,PCZ}との2つの交点の内で左側の交点をL、右側の交点をRとする。
この場合、交点L、R、L、Rは、それぞれ、以下の式によって算出できる。
以上のようにして、物体投影面を構成する3次元ポリゴンPを、{X軸,Y軸,Z軸}グリット面で切断した際の断面形状の外郭線が、交線としてグリットデータGDに登録されることとなる。そして、カメラ3により撮像された車両周辺の状況を可視化した結果に対して、グリットデータGDに登録されている線分情報を重畳描画することで、図16に例示するに、車両周辺の物体上にグリット断面を重畳表示することが可能となる。なお、図16は、本実施形態1における画像処理の結果の例を示す図である。
また、この際、ポリゴンデータPDに登録されている3次元ポリゴンPに対して、テクスチャ座標Qを付与して、カメラ3により撮像された画像をテクスチャ画像として、重畳描画してもよい。車両周辺の物体をテクスチャ付き描画した後に、グリットデータGDに登録されている線分情報を物体上に重畳表示することで、色や模様による物体の認識と、交線による物体形状の把握を同時に実現することが可能となる。
この場合、三角形{P,P,P}がポリゴンデータPDに登録されているとすると、各頂点P、P、P(式中では、P{0,1,2}で表されている)は車両座標系CCARで定義されていることから、各頂点のテクスチャ座標Q{0,1,2}は、上述の式(2)乃至式(4)により、式11に従って算出できる。
次に、図17を参照して、本実施形態1における車載装置2について説明する。図17は、本実施形態1における車載装置2の構成例を示す機能ブロック図である。本実施形態1における車載装置2は、図17に示すように、記憶部10と、表示部20と、操作部30と、制御部40と、を備えて構成されている。
記憶部10は、RAM(Random Access Memory)、ROM(Read Only Memory)、HDD(Hard Disk Drive)などで構成されている。記憶部10は、制御部40を構成する、例えば、CPU(Central Processing Unit)のワークエリア、車載装置2全体を制御するための動作プログラムなどの各種プログラムを格納するプログラムエリア、カメラ3とレンジセンサ4の配置パラメータ、ポリゴンデータPD、グリットデータGDなどの各種データを格納するデータエリアとして機能する。また、記憶部10のデータエリアには、各カメラ3のマッピングテーブルT、各レンジセンサ4のスキャンベクトルテーブルTなども格納されている。
また、記憶部10は、画像バッファ11として機能し、画像バッファ11は、カメラ3により撮像された、自車両周辺の画像データを順次格納する。
表示部20は、LCD(Liquid Crystal Display)や有機EL(Electro-Luminescence)などの表示装置などで構成され、例えば、所定の画像処理を施した自車両周辺の画像や各種機能ボタンなどを表示画面上に表示する。
操作部30は、各種ボタンや表示部20の表示画面上に表示されるタッチパネルなどで構成され、ユーザ(運転手など)は、操作部30を操作して、所望の処理を実行させることが可能である。
制御部40は、例えば、CPUなどで構成され、記憶部10のプログラムエリアに格納されている動作プログラムを実行して、図17に示すように、判定部41と、座標変換行列生成部42と、テクスチャ座標算出部43と、計測点座標算出部44と、抽出部45と、ポリゴン判定部46と、交線算出部47と、画像処理部48としての機能を実現すると共に、車載装置2全体を制御する制御処理や詳しくは後述の画像処理などの処理を実行する。
判定部41は、詳しくは後述の画像処理の終了が指示されたか否かを判定する。判定部41は、例えば、操作部30を介して、ユーザにより所定の操作が行われた場合に、画像処理の終了が指示されたと判定する。また、例えば、判定部41は、車載装置2が搭載されている車両のシフトレバーがパーキングの状態にされた場合など、予め設定されている終了条件を充足した際に、画像処理の終了が指示されたと判定する。
座標変換行列生成部42は、記憶部10のデータエリアに格納されている各カメラ3の配置パラメータに基づいて、上述の式(1)により、車両座標系CCARからカメラ座標系CCAMへの座標変換行列MCAR→CAMをカメラ3ごとに生成する。また、座標変換行列生成部42は、記憶部10のデータエリアに格納されている各レンジセンサ4の配置パラメータに基づいて、上述の式(6)により、車両座標系CCARからレンジセンサ座標系CSNSRへの座標変換行列MCAR→SNSRをレンジセンサ4ごとに生成する。
テクスチャ座標算出部43は、カメラ3により撮像された画像に基づいて、車両全周囲の状況を可視化するために、仮想的な立体投影面を構成する3次元ポリゴン(投影面ポリゴン)Pの各頂点のテクスチャ座標Qを算出する。具体的には、テクスチャ座標算出部43は、上述の式(1)乃至式(4)により、投影面ポリゴンPの各頂点のテクスチャ座標Qを算出する。
また、テクスチャ座標算出部43は、上述の式(1)乃至式(4)により、ポリゴンデータPDに登録されている3次元ポリゴンPの各頂点のテクスチャ座標Qを算出する。
計測点座標算出部44は、レンジセンサ4により送信される周辺物体の計測点までの距離D(m,n)を受信すると、受信した距離D(m,n)に基づいて、上述の式(5)により、レンジセンサ座標系CSNSRでの周辺物体の計測点座標PSNSR(m,n)を算出する。この際、計測点座標算出部44は、記憶部10のデータエリアに格納されているスキャンベクトルテーブルTを参照して、距離D(m,n)と共に入力される方向情報が示すスキャン方向に対応するスキャンベクトルV(m,n)を特定する。
また、計測点座標算出部44は、算出したレンジセンサ座標系CSNSRでの計測点座標PSNSR(m,n)を、上述の式(6)と式(7)に従って、車両座標系CCARでの計測点座標PCAR(m,n)に変換する。
抽出部45は、計測点座標算出部44より算出された車両座標系CCARでの計測点座標PCAR(m,n)の中から、上述した抽出方法に従って、立体点群データPG2に属する計測点座標PCAR(m,n)を抽出する。
ポリゴン判定部46は、抽出部45により抽出された立体点群データPG2に属する計測点の内で、隣接する計測点により形成される図形(例えば、三角形)が、所定の条件(上述の式(8.1)乃至式(8.4))を充足するか否かを判定することで、当該図形が物体投影面を構成する3次元ポリゴンPか否かを判定する。そして、ポリゴン判定部46は、物体投影面を構成する3次元ポリゴンPであると判定した図形をポリゴンデータPDに登録する。
交線算出部47は、上述のステップ1−1乃至ステップ1−3の処理に従って、ポリゴン判定部46によりポリゴンデータPDに登録された全ての3次元ポリゴンPに対し、{X軸,Y軸,Z軸}グリット面との交線を算出し、算出した交線をグリットデータGDに登録する。
画像処理部48は、カメラ3により撮像され、画像バッファ11に格納されている画像に基づいて、描画処理を行う。より具体的には、画像処理部48は、画像バッファ11に格納されている画像をテクスチャ画像として用い、テクスチャ座標算出部43により算出された投影面ポリゴンPの各頂点のテクスチャ座標Qに基づいて、描画処理を行うことで、車両全周囲の状況を投影した仮想的な立体投影面を生成する。
また、画像処理部48は、画像バッファ11に格納されている画像をテクスチャ画像として用い、テクスチャ座標算出部43により算出された物体投影面を構成する3次元ポリゴンPの各頂点のテクスチャ座標Qに基づいて、描画処理を行うことで、立体投影面に通行人などの周辺物体を重畳描画する。
さらに、画像処理部48は、テクスチャ付き描画された周辺物体上に、グリットデータGDに登録されている交線を、3次元CGで重畳描画する。そして、画像処理部48は、表示部20を制御して、描画した画像を表示画面上に表示させる。
次に、図18を参照して、本実施形態1における画像処理の流れについて説明する。図18は、本実施形態1における画像処理のフローを説明するためのフローチャートの例である。本画像処理は、例えば、カメラ3により撮像された画像の画像データが画像バッファ11に格納されたことをトリガとして開始される。
座標変換行列生成部42は、各カメラ3の配置パラメータに基づいて、車両座標系CCARからカメラ座標系CCAMへの座標変換行列MCAR→CAMをカメラ3ごとに生成する(ステップS001)。そして、テクスチャ座標算出部43は、仮想的な立体投影面を構成する投影面ポリゴンPの各頂点のテクスチャ座標Qを算出する(ステップS002)。
そして、座標変換行列生成部42は、各レンジセンサ4の配置パラメータに基づいて、車両座標系CCARからレンジセンサ座標系CSNSRへの座標変換行列MCAR→SNSRをレンジセンサ4ごとに生成する(ステップS003)。
そして、レンジセンサ4により送信される距離D(m,n)を受信すると(ステップS004)、計測点座標算出部44は、受信した距離D(m,n)に基づいて、レンジセンサ座標系CSNSRでの周辺物体の計測点座標PSNSR(m,n)を算出し(ステップS005)、算出した計測点座標PSNSR(m,n)を車両座標系CCARでの計測点座標PCAR(m,n)に、更に、変換する(ステップS006)。
そして、抽出部45は、計測点座標算出部44より算出された車両座標系CCARでの計測点座標PCAR(m,n)の中から、立体点群データPG2に属する計測点座標PCAR(m,n)を抽出する(ステップS007)。そして、ポリゴン判定部46は、抽出部45により抽出された立体点群データPG2に属する計測点の内で、隣接する計測点により形成される図形が、物体投影面を構成する3次元ポリゴンPか否かを判定し、物体投影面を構成する3次元ポリゴンPであると判定した図形をポリゴンデータPDに登録する(ステップS008)。
そして、テクスチャ座標算出部43は、ポリゴンデータPDに登録されている3次元ポリゴンPの各頂点のテクスチャ座標Qを算出する(ステップS009)。そして、交線算出部47は、ポリゴンデータPDに登録されている3次元ポリゴンPに対し、{X軸,Y軸,Z軸}グリット面との交線を算出し、算出した交線をグリットデータGDに登録する(ステップS010)。
そして、画像処理部48は、画像バッファ11に格納されている画像をテクスチャ画像として用い、投影面ポリゴンPの各頂点のテクスチャ座標Qに基づいて、描画処理を行うことで、車両全周囲の状況を投影した仮想的な立体投影面を生成する(ステップS011)。
そして、画像処理部48は、画像バッファ11に格納されている画像をテクスチャ画像として用い、ポリゴンデータPDに登録されている3次元ポリゴンPの各頂点のテクスチャ座標Qに基づいて、描画処理を行うことで、立体投影面に通行人などの周辺物体を重畳描画する(ステップS012)。
そして、画像処理部48は、テクスチャ付き描画された周辺物体上に、グリットデータGDに登録されている交線を、3次元CGで重畳描画し(ステップS013)、表示部20を制御して、描画した画像を表示画面上に表示させる(ステップS014)。
そして、判定部41は、画像処理の終了が指示されたか否かを判定する(ステップS015)。判定部41により、画像処理の終了は指示されていないと判定された場合には(ステップS015;NO)、処理はステップS004の処理へと戻り、前述の処理を行う。一方、判定部41により、画像処理の終了が指示されたと判定された場合には(ステップS015;YES)、本画像処理を終了する。
上記実施形態1によれば、車両に配置したレンジセンサ4により計測した周辺物体を仮想的な立体投影面に再構成して可視化する際に、{X軸,Y軸,Z軸}グリット面と周辺物体との交線(グリット線)を表示する。このように構成することで、周辺物体の色や輝度に依存することなく、周辺物体の形状を容易に把握することが可能となる。これにより、運転手は車両周辺の状況を的確に把握することが可能となることから、安全運転にも寄与できる。
また、上記実施形態1によれば、グリット面を均等間隔で配置する。このように構成することで、周辺物体の大きさの把握が容易となる。また、画像上でのグリット間隔の広さにより、周辺物体までの距離を容易に把握することが可能となる。すなわち、車両周辺の状況をより的確に把握することが可能となる。
また、上記実施形態1によれば、テクスチャ付き描画した周辺物体上に、交線(グリット線)を重畳表示する。このように構成することで、色や模様による周辺物体の存在認識と、交線(グリット線)による周辺物体の形状把握とを同時に実現することが可能となる。
また、上記実施形態1によれば、隣接する計測点からなる図形の内で、レンジセンサ4のセンサ原点方向に対する面法線の傾きが所定範囲を超える図形を除外して、物体投影面を構成する3次元ポリゴンPを生成する。このように構成することで、別々の物体間に本来存在しない物体投影面を発生させてしまうような不具合を軽減することが可能となる。
また、上記実施形態1によれば、PCAR(m,n)の中から、立体点群データPG2に属する計測点座標PCAR(m,n)を抽出する。すなわち、物体投影面を構成する上で不必要な道路平面上の計測点を除外する。このように構成することで、処理対象を削減し、処理速度を向上させることが可能となる。
(実施形態2)
実施形態1においては、車両座標系CCARで定義されている{X軸,Y軸,Z軸}グリット面と、物体投影面を構成する3次元ポリゴンPとの交線を算出し、周辺物体上に交線を重畳表示するように構成した。
本実施形態2においては、車両が移動しても座標が変化しない世界座標系CWORLDで定義されている{X軸,Y軸,Z軸}グリット面を用いるように構成する。
図19は、本実施形態2における車載システム1の構成例を示す機能ブロック図である。本実施形態2における車載システム1の構成は、基本的には実施形態1の場合と同じである。但し、図19に示すように、車載システム1が、さらに、GPS(Global Positioning System)5と電子コンパス6とを備える点と、車載装置2の制御部40が、さらに、位置推定部49として機能する点で、実施形態1の場合と異なっている。また、制御部40の共通する機能部の一部(座標変換行列生成部42、交線算出部47)が果たす役割が実施形態1の場合と若干異なっている。
GPS5は、所定のタイミングで、自車両の3次元位置座標を算出し、算出した自車両の3次元位置座標を車載装置2に送信する。
電子コンパス6は、所定のタイミングで、自車両の方位角を算出し、算出した自車両の方位角を車載装置2に送信する。
制御部40は、例えば、CPUなどで構成され、記憶部10のプログラムエリアに格納されている動作プログラムを実行して、図19に示すように、判定部41と、座標変換行列生成部42と、テクスチャ座標算出部43と、計測点座標算出部44と、抽出部45と、ポリゴン判定部46と、交線算出部47と、画像処理部48と、位置推定部49としての機能を実現すると共に、車載装置2全体を制御する制御処理や後述の画像処理などの処理を実行する。
位置推定部49は、GPS5により算出された自車両の3次元位置座標と、電子コンパス6により算出された自車両の方位角と、に基づいて、世界座標系CWORLDでの自車両の位置(車両原点Oの3次元座標)と向き(世界座標系CWORLDのZ軸まわりの回転角)を推定する。
なお、世界座標系CWORLDをどのように設定するかは任意であり、位置が固定されている地物や子後線などに基づいて定義してもよいし、エンジン始動時の車両位置と方位に基づいて定義してもよい。また、例えば、車速センサやジャイロセンサなどを用いて推定した相対位置座標や相対角を利用してもよい。
座標変換行列生成部42は、実施形態1で説明した処理の他に、位置推定部49により推定された世界座標系CWORLDでの自車両の位置と向きとに基づいて、車両座標系CCARから世界座標系CWORLDへの座標変換行列MCAR→WORLDを生成する。
より具体的には、位置推定部49により推定された、世界座標系CWORLDでの車両原点Oの3次元座標を(A,A,A)、世界座標系CWORLDのZ軸まわりの回転角をRとすると、座標変換行列生成部42は、式(12)で表される座標変換行列MCAR→WORLDを生成する。
交線算出部47は、後述のステップ2−0乃至ステップ2−3の処理に従って、ポリゴンデータPDに登録されている3次元ポリゴンPに対し、世界座標系CWORLDの{X,Y,Z}軸に対してSTEP{X,Y,Z}の均等間隔で定義されている{X軸,Y軸,Z軸}グリット面との交線を算出し、算出した交線をグリットデータGDに登録する。
{X軸,Y軸,Z軸}グリット面が上述のように構成されている場合において、三角形{P,P,P}が3次元ポリゴンPとしてポリゴンデータPDに登録されているとすると、3次元ポリゴンPである三角形{P,P,P}に対する{X軸,Y軸,Z軸}グリット面との交線を、以下に示す処理(ステップ2−0乃至ステップ2−3)に従って算出することができる。
<ステップ2−0>
車両座標系CCARで定義されている三角形{P,P,P}の頂点座標P、P、Pを、式(13)により、それぞれ、世界座標系CWORLDでの頂点座標P 、P 、P に変換する。なお、式中のP{0,1,2}は、頂点座標P、P、Pを、便宜的に一括で示している。P {0,1,2}についても同様である。
<ステップ2−1>
世界座標系CWORLDに変換後の頂点P 、P 、P を{X,Y,Z}座標値の降順にソートし、ソート結果をP A{X,Y,Z}、P B{X,Y,Z}、P C{X,Y,Z}とする。なお、P A{X,Y,Z}は、X座標値の降順にソートした場合のP AX、Y座標値の降順にソートした場合のP AY、Z座標値の降順にソートした場合のP AZ、を便宜的に一括で示している。P B{X,Y,Z}、P C{X,Y,Z}についても同様である。
<ステップ2−2>
式(14.1)乃至式(14.3)に従って、[P A{X,Y,Z}]、[P B{X,Y,Z}]、[P C{X,Y,Z}]をSTEP{X,Y,Z}で割って算出した値の整数部NA{X,Y,Z}、NB{X,Y,Z}、NC{X,Y,Z}をそれぞれ算出する。
なお、[P A{X,Y,Z}]は、P AXのX座標値、P AYのY座標値、P AZのZ座標値を、便宜的に一括で示している。[P B{X,Y,Z}]と[P C{X,Y,Z}]についても同様である。また、整数部NA{X,Y,Z}は、P AXのX座標値をSTEPで割って算出した値の整数部NAX、P AYのY座標値をSTEPで割って算出した値の整数部NAY、P AZのZ座標値をSTEPで割って算出した値の整数部NAZを、便宜的に一括で示している。整数部NB{X,Y,Z}と整数部NC{X,Y,Z}についても同様である。
<ステップ2−3>
X座標値の降順にソートした場合の整数部NAX、NBX、NCXにおいて、(A)NAX≠NBX、且つ、NBX=NCXの場合は、図15に例示する線分Lを算出し、算出した線分LをX軸グリット面との交線として座標情報をグリットデータGDに登録し、(B)NAX=NBX、且つ、NBX≠NCXの場合は、図15に例示する線分Lを算出し、算出した線分LをX軸グリット面との交線として座標情報をグリットデータGDに登録し、(C)(A)と(B)以外の場合は、X軸グリット面との交線のグリットデータGDへの登録を行わない。
同様にして、Y座標値の降順にソートした場合の整数部NAY、NBY、NCYにおいて、Y軸グリット面との交線の登録処理を行い、Z座標値の降順にソートした場合の整数部NAZ、NBZ、NCZにおいて、Z軸グリット面との交線の登録処理を行う。
本実施形態2における車両座標系CCARでの交点L、R、L、Rは、それぞれ、以下の式によって算出できる。
次に、図20を参照して、本実施形態2における画像処理の流れについて説明する。図20は、本実施形態2における画像処理のフローを説明するためのフローチャートの例の一部である。本実施形態2における画像処理は、ステップS009とステップS010との間に新たな処理が追加される点で、実施形態1の場合と異なっている。したがって、ここでは、新たに追加された処理(ステップS101とステップS102)とステップS010について説明する。
ステップS009の後、ステップS101の処理へと進み、位置推定部49は、GPS5により算出された自車両の3次元位置座標と、電子コンパス6により算出された自車両の方位角と、に基づいて、世界座標系CWORLDでの自車両の位置と向きを推定する(ステップS101)。
そして、座標変換行列生成部42は、位置推定部49により推定された世界座標系CWORLDでの自車両の位置と向きとに基づいて、車両座標系CCARから世界座標系CWORLDへの座標変換行列MCAR→WORLDを生成する(ステップS102)。
そして、交線算出部47は、ポリゴンデータPDに登録されている3次元ポリゴンPに対し、世界座標系CWORLDで定義されている{X軸,Y軸,Z軸}グリット面との交線を算出し、算出した交線をグリットデータGDに登録する(ステップS010)。その後、処理は実施形態1で説明したステップS011の処理へと進む。
上記実施形態2によれば、世界座標系CWORLDで定義したグリット面との交線を、周辺物体上に重畳表示する。このように構成することで、静止している周辺物体上の交線は自車両が移動していても固定で表示され、周辺環境に対する自車両の移動を直感的に把握することが容易となる。
(実施形態3)
本実施形態3においては、自車両からの距離に応じて、例えば、交線(グリット線)の色や輝度や透過率などを変化させるように構成する。以下において、自車両からの距離に応じて交線(グリット線)の色を変化させる例について説明する。なお、本構成は、実施形態1と2のいずれの構成にも適用可能である。
図21は、本実施形態3における車載システム1の構成例を示す機能ブロック図である。本実施形態3における車載システム1の構成は、基本的には実施形態1の場合と同じである。但し、図21に示すように、車載装置2の制御部40が、さらに、距離算出部4Aとして機能する点で、実施形態1の場合と異なっている。また、制御部40の共通する機能部の一部(画像処理部48)が果たす役割が実施形態1の場合と若干異なっている。また、記憶部10のデータエリアには、さらに、距離と色とを対応付けているカラーマップが格納されている。
制御部40は、例えば、CPUなどで構成され、記憶部10のプログラムエリアに格納されている動作プログラムを実行して、図21に示すように、判定部41と、座標変換行列生成部42と、テクスチャ座標算出部43と、計測点座標算出部44と、抽出部45と、ポリゴン判定部46と、交線算出部47と、画像処理部48と、距離算出部4Aとしての機能を実現すると共に、車載装置2全体を制御する制御処理や後述の画像処理などの処理を実行する。
距離算出部4Aは、グリットデータGDに登録されている交線の交点座標に基づいて、例えば、車両原点Oから各交点までの交点距離を算出する。
画像処理部48は、交線を周辺物体上に重畳表示する際に、カラーマップを参照して、距離算出部4Aにより算出された各交点の交点距離に対応する色を設定し、自車両からの距離に応じて交線(グリット線)の色を変化させる。
次に、図22を参照して、本実施形態3における画像処理の流れについて説明する。図22は、本実施形態3における画像処理のフローを説明するためのフローチャートの例の一部である。本実施形態3における画像処理は、ステップS010とステップS011との間に新たな処理(ステップS201)が追加される点で、実施形態1の場合と異なっている。したがって、ここでは、新たに追加されたステップS201からステップS013について説明する。
ステップS010の処理の後、処理はステップS201へと進み、距離算出部4Aは、グリットデータGDに登録されている交線の交点座標に基づいて、各交点の交点距離を算出する(ステップS201)。
そして、画像処理部48は、画像バッファ11に格納されている画像をテクスチャ画像として用い、投影面ポリゴンPの各頂点のテクスチャ座標Qに基づいて、描画処理を行うことで、車両全周囲の状況を投影した仮想的な立体投影面を生成する(ステップS011)。
そして、画像処理部48は、画像バッファ11に格納されている画像をテクスチャ画像として用い、ポリゴンデータPDに登録されている3次元ポリゴンPの各頂点のテクスチャ座標Qに基づいて、描画処理を行うことで、立体投影面に通行人などの周辺物体を重畳描画する(ステップS012)。
そして、画像処理部48は、テクスチャ付き描画された周辺物体上に、グリットデータGDに登録されている交線を、3次元CGで重畳描画する(ステップS013)。この際、画像処理部48は、カラーマップを参照して、距離算出部4Aにより算出された各交点の交点距離に対応する色を設定し、自車両からの距離に応じて交線(グリット線)の色を変化させる。その後、実施形態1で説明したステップS014の処理へと進む。
上記実施形態3によれば、自車両からの距離に応じて交線(グリット線)の色や輝度などを変えて表示する。このように構成することで、重なり合っている周辺物体の前後関係を把握することが容易となり、自車両周辺の状況をより的確に把握することが可能となる。
図23は、各実施形態における車載システム1のハードウェア構成の例を示す図である。図17、図19、図21に示す車載装置2は、例えば、図23に示す各種ハードウェアにより実現されてもよい。図23の例では、車載装置2は、CPU201、RAM202、ROM203、HDD204、カメラ3が接続されているカメラインターフェース205、モニタ210が接続されているモニタインターフェース206、レンジセンサ4などのセンサ類が接続されているセンサ類インターフェース207、無線通信モジュール208、および読取装置209を備え、これらのハードウェアはバス211を介して接続されている。
CPU201は、HDD204に格納されている動作プログラムをRAM202にロードし、RAM202をワーキングメモリとして使いながら各種処理を実行する。CPU201は、動作プログラムを実行することで、図17、図19、図21に示す制御部40の各機能部を実現することができる。
なお、上記動作を実行するための動作プログラムを、フレキシブルディスク、CD−ROM(Compact Disk-Read Only Memory)、DVD(Digital Versatile Disk)、MO(Magnet Optical disk)などのコンピュータで読み取り可能な記録媒体212に記憶して配布し、これを車載装置2の読取装置209で読み取ってコンピュータにインストールすることにより、上述の処理を実行するように構成してもよい。さらに、インターネット上のサーバ装置が有するディスク装置等に動作プログラムを記憶しておき、無線通信モジュール208を介して、車載装置2のコンピュータに動作プログラムをダウンロード等するものとしてもよい。
なお、実施形態に応じて、RAM202、ROM203、HDD204以外の他の種類の記憶装置が利用されてもよい。例えば、車載装置2は、CAM(Content Addressable Memory)、SRAM(Static Random Access Memory)、SDRAM(Synchronous Dynamic Random Access Memory)などの記憶装置を有してもよい。
無線通信モジュール208は、無線接続における物理層の処理を行うハードウェアである。無線通信モジュール208は、例えば、アンテナ、ADC(Analog-to-Digital Converter)、DAC(Digital-to-Analog Converter)、変調器、復調器、符号化器、復号器などを含む。
なお、実施形態に応じて、車載システム1のハードウェア構成は図23とは異なっていてもよく、図23に例示した規格・種類以外のその他のハードウェアを車載システム1に適用することもできる。
例えば、図17、図19、図21に示す車載装置2の制御部40の各機能部は、ハードウェア回路により実現されてもよい。具体的には、CPU201の代わりに、FPGA(Field Programmable Gate Array)などのリコンフィギュラブル回路や、ASIC(Application Specific Integrated Circuit)などにより、図17、図19、図21に示す制御部40の各機能部が実現されてもよい。もちろん、CPU201とハードウェア回路の双方により、これらの機能部が実現されてもよい。
以上において、いくつかの実施形態について説明した。しかしながら、実施形態は上記の実施形態に限定されるものではなく、上述の実施形態の各種変形形態及び代替形態を包含するものとして理解されるべきである。例えば、各種実施形態は、その趣旨及び範囲を逸脱しない範囲で構成要素を変形して具体化できることが理解されよう。また、前述した実施形態に開示されている複数の構成要素を適宜組み合わせることにより、種々の実施形態を成すことができることが理解されよう。更には、実施形態に示される全構成要素からいくつかの構成要素を削除して又は置換して、或いは実施形態に示される構成要素にいくつかの構成要素を追加して種々の実施形態が実施され得ることが当業者には理解されよう。
以上の実施形態1〜3を含む実施形態に関し、さらに以下の付記を開示する。
(付記1)
車両に搭載されているカメラにより撮像された画像と、前記車両に搭載されている距離センサにより算出された周辺物体上の計測点までの距離と、に基づいて、前記車両の周辺環境を再構築した仮想的な3次元空間を描画する画像処理装置であって、
前記車両を基準とする座標系である車両座標系で定義されている複数のグリット面と前記周辺物体との交差断面の外郭線を算出する外郭線算出手段と、
前記外郭線算出手段により算出された前記外郭線を前記仮想的な3次元空間内に配置されている対応する周辺物体上に描画する画像処理手段と、
を備え、
前記複数のグリット面は、前記車両座標系のX軸に対して垂直な平面と、前記車両座標系のY軸に対して垂直な平面と、前記車両座標系のZ軸に対して垂直な平面と、により構成されている、
ことを特徴とする画像処理装置。
(付記2)
前記周辺物体上の計測点までの距離に基づいて、前記周辺物体の形状を特定する形状特定手段をさらに備え、
前記外郭線算出手段は、前記形状特定手段により特定された前記形状に基づいて、前記外郭線を算出する、
ことを特徴とする付記1に記載の画像処理装置。
(付記3)
前記形状特定手段は、前記周辺物体の形状を特定する際に、前記距離センサの方向に対する、隣接する前記計測点により構成される図形の面法線の傾きが所定の範囲を超える図形を除外する、
ことを特徴とする付記2に記載の画像処理装置。
(付記4)
前記計測点の内で、道路平面上の計測点を除外する除外手段を更に備え、
前記形状特定手段は、前記除外手段により道路平面上の計測点が除外された後の計測点に基づいて、前記周辺物体の形状を特定する、
ことを特徴とする付記2又は3に記載の画像処理装置。
(付記5)
前記複数のグリット面は、世界座標系で定義され、前記世界座標系のX軸に対して垂直な平面と、前記世界座標系のY軸に対して垂直な平面と、前記世界座標系のZ軸に対して垂直な平面と、により構成されており、
前記外郭線算出手段は、前記世界座標系で定義されている複数のグリット面と前記周辺物体との交差断面の外郭線を算出する、
ことを特徴とする付記1乃至4のいずれか一に記載の画像処理装置。
(付記6)
前記画像処理手段は、前記車両からの距離に応じて、前記外郭線の属性を変化させて描画する、
ことを特徴とする付記1乃至5のいずれか一に記載の画像処理装置。
(付記7)
前記X軸に垂直な平面は第1の間隔で均等に配置され、前記Y軸に垂直な平面は第2の間隔で均等に配置され、前記Z軸に垂直な平面は第3の間隔で均等に配置されている、
ことを特徴とする付記1乃至6のいずれか一に記載の画像処理装置。
(付記8)
前記画像処理手段は、前記周辺物体をテクスチャ付き描画した後に、前記外郭線を重畳描画する、
ことを特徴とする付記1乃至7のいずれか一に記載の画像処理装置。
(付記9)
前記画像処理手段による処理結果を表示画面上に表示する表示手段を更に備える、
ことを特徴とする付記1乃至8のいずれか一に記載の画像処理装置。
(付記10)
車両に搭載されているカメラにより撮像された画像と、前記車両に搭載されている距離センサにより算出された周辺物体上の計測点までの距離と、に基づいて、前記車両の周辺環境を再構築した仮想的な3次元空間を描画する画像処理装置の画像処理方法であって、
前記車両を基準とする座標系である車両座標系で定義されている複数のグリット面であって、前記車両座標系のX軸に対して垂直な平面と、前記車両座標系のY軸に対して垂直な平面と、前記車両座標系のZ軸に対して垂直な平面と、により構成されている前記複数のグリット面と前記周辺物体との交差断面の外郭線を算出し、
算出した前記外郭線を前記仮想的な3次元空間内に配置されている対応する周辺物体上に描画する、
ことを特徴とする画像処理方法。
(付記11)
車両に搭載されているカメラにより撮像された画像と、前記車両に搭載されている距離センサにより算出された周辺物体上の計測点までの距離と、に基づいて、前記車両の周辺環境を再構築した仮想的な3次元空間を描画する画像処理装置のコンピュータに、
前記車両を基準とする座標系である車両座標系で定義されている複数のグリット面であって、前記車両座標系のX軸に対して垂直な平面と、前記車両座標系のY軸に対して垂直な平面と、前記車両座標系のZ軸に対して垂直な平面と、により構成されている前記複数のグリット面と前記周辺物体との交差断面の外郭線を算出し、
算出した前記外郭線を前記仮想的な3次元空間内に配置されている対応する周辺物体上に描画する、
処理を実行させる、
ことを特徴とするプログラム。
(付記12)
車両に搭載されているカメラにより撮像された画像と、前記車両に搭載されている距離センサにより算出された周辺物体上の計測点までの距離と、に基づいて、前記車両の周辺環境を再構築した仮想的な3次元空間を描画する画像処理装置のコンピュータに、
前記車両を基準とする座標系である車両座標系で定義されている複数のグリット面であって、前記車両座標系のX軸に対して垂直な平面と、前記車両座標系のY軸に対して垂直な平面と、前記車両座標系のZ軸に対して垂直な平面と、により構成されている前記複数のグリット面と前記周辺物体との交差断面の外郭線を算出し、
算出した前記外郭線を前記仮想的な3次元空間内に配置されている対応する周辺物体上に描画する、
処理を実行させるプログラムを記憶した記録媒体。
1 車載システム
2 車載装置
10 記憶部
11 画像バッファ
20 表示部
30 操作部
40 制御部
41 判定部
42 座標変換行列生成部
43 テクスチャ座標算出部
44 計測点座標算出部
45 抽出部
46 ポリゴン判定部
47 交線算出部
48 画像処理部
49 位置推定部
4A 距離算出部
3 カメラ
4 レンジセンサ
5 GPS
6 電子コンパス
201 CPU
202 RAM
203 ROM
204 HDD
205 カメラインターフェース
206 モニタインターフェース
207 センサ類インターフェース
208 無線通信モジュール
209 読取装置
210 モニタ
211 バス
212 記録媒体
国際公開WO2012/017560

Claims (11)

  1. 車両に搭載されているカメラにより撮像された画像と、前記車両に搭載されている距離センサにより算出された周辺物体上の計測点までの距離と、に基づいて、前記車両の周辺環境を再構築した仮想的な3次元空間を描画する画像処理装置であって、
    前記車両を基準とする座標系である車両座標系で定義されている複数のグリット面と前記周辺物体との交差断面の外郭線を算出する外郭線算出手段と、
    前記外郭線算出手段により算出された前記外郭線を前記仮想的な3次元空間内に配置されている対応する周辺物体上に描画する画像処理手段と、
    を備え、
    前記複数のグリット面は、前記車両座標系のX軸に対して垂直な平面と、前記車両座標系のY軸に対して垂直な平面と、前記車両座標系のZ軸に対して垂直な平面と、により構成されている、
    ことを特徴とする画像処理装置。
  2. 前記周辺物体上の計測点までの距離に基づいて、前記周辺物体の形状を特定する形状特定手段をさらに備え、
    前記外郭線算出手段は、前記形状特定手段により特定された前記形状に基づいて、前記外郭線を算出する、
    ことを特徴とする請求項1に記載の画像処理装置。
  3. 前記形状特定手段は、前記周辺物体の形状を特定する際に、前記距離センサの方向に対する、隣接する前記計測点により構成される図形の面法線の傾きが所定の範囲を超える図形を除外する、
    ことを特徴とする請求項2に記載の画像処理装置。
  4. 前記計測点の内で、道路平面上の計測点を除外する除外手段を更に備え、
    前記形状特定手段は、前記除外手段により道路平面上の計測点が除外された後の計測点に基づいて、前記周辺物体の形状を特定する、
    ことを特徴とする請求項2又は3に記載の画像処理装置。
  5. 前記複数のグリット面は、世界座標系で定義され、前記世界座標系のX軸に対して垂直な平面と、前記世界座標系のY軸に対して垂直な平面と、前記世界座標系のZ軸に対して垂直な平面と、により構成されており、
    前記外郭線算出手段は、前記世界座標系で定義されている複数のグリット面と前記周辺物体との交差断面の外郭線を算出する、
    ことを特徴とする請求項1乃至4のいずれか一に記載の画像処理装置。
  6. 前記画像処理手段は、前記車両からの距離に応じて、前記外郭線の属性を変化させて描画する、
    ことを特徴とする請求項1乃至5のいずれか一に記載の画像処理装置。
  7. 前記X軸に垂直な平面は第1の間隔で均等に配置され、前記Y軸に垂直な平面は第2の間隔で均等に配置され、前記Z軸に垂直な平面は第3の間隔で均等に配置されている、
    ことを特徴とする請求項1乃至6のいずれか一に記載の画像処理装置。
  8. 前記画像処理手段は、前記周辺物体をテクスチャ付き描画した後に、前記外郭線を重畳描画する、
    ことを特徴とする請求項1乃至7のいずれか一に記載の画像処理装置。
  9. 前記画像処理手段による処理結果を表示画面上に表示する表示手段を更に備える、
    ことを特徴とする請求項1乃至8のいずれか一に記載の画像処理装置。
  10. 車両に搭載されているカメラにより撮像された画像と、前記車両に搭載されている距離センサにより算出された周辺物体上の計測点までの距離と、に基づいて、前記車両の周辺環境を再構築した仮想的な3次元空間を描画する画像処理装置の画像処理方法であって、
    前記車両を基準とする座標系である車両座標系で定義されている複数のグリット面であって、前記車両座標系のX軸に対して垂直な平面と、前記車両座標系のY軸に対して垂直な平面と、前記車両座標系のZ軸に対して垂直な平面と、により構成されている前記複数のグリット面と前記周辺物体との交差断面の外郭線を算出し、
    算出した前記外郭線を前記仮想的な3次元空間内に配置されている対応する周辺物体上に描画する、
    ことを特徴とする画像処理方法。
  11. 車両に搭載されているカメラにより撮像された画像と、前記車両に搭載されている距離センサにより算出された周辺物体上の計測点までの距離と、に基づいて、前記車両の周辺環境を再構築した仮想的な3次元空間を描画する画像処理装置のコンピュータに、
    前記車両を基準とする座標系である車両座標系で定義されている複数のグリット面であって、前記車両座標系のX軸に対して垂直な平面と、前記車両座標系のY軸に対して垂直な平面と、前記車両座標系のZ軸に対して垂直な平面と、により構成されている前記複数のグリット面と前記周辺物体との交差断面の外郭線を算出し、
    算出した前記外郭線を前記仮想的な3次元空間内に配置されている対応する周辺物体上に描画する、
    処理を実行させる、
    ことを特徴とするプログラム。
JP2013212337A 2013-10-09 2013-10-09 画像処理装置、画像処理方法、及び、プログラム Expired - Fee Related JP6149676B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2013212337A JP6149676B2 (ja) 2013-10-09 2013-10-09 画像処理装置、画像処理方法、及び、プログラム
US14/463,793 US20150098623A1 (en) 2013-10-09 2014-08-20 Image processing apparatus and method
EP14182461.5A EP2863365A3 (en) 2013-10-09 2014-08-27 Image processing apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013212337A JP6149676B2 (ja) 2013-10-09 2013-10-09 画像処理装置、画像処理方法、及び、プログラム

Publications (2)

Publication Number Publication Date
JP2015075966A true JP2015075966A (ja) 2015-04-20
JP6149676B2 JP6149676B2 (ja) 2017-06-21

Family

ID=51453623

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013212337A Expired - Fee Related JP6149676B2 (ja) 2013-10-09 2013-10-09 画像処理装置、画像処理方法、及び、プログラム

Country Status (3)

Country Link
US (1) US20150098623A1 (ja)
EP (1) EP2863365A3 (ja)
JP (1) JP6149676B2 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101767434B1 (ko) * 2015-11-17 2017-08-14 현대오트론 주식회사 헤드업 디스플레이를 이용한 차선 표시장치 및 그 방법
WO2018061613A1 (ja) * 2016-09-30 2018-04-05 本田技研工業株式会社 車両制御装置
CN108290499A (zh) * 2015-11-24 2018-07-17 康蒂-特米克微电子有限公司 带有自适应周围环境图像数据处理功能的驾驶员辅助系统
JP2018139107A (ja) * 2017-01-20 2018-09-06 ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツングRobert Bosch Gmbh 車両の周辺を表示する方法
CN111429469A (zh) * 2019-04-17 2020-07-17 杭州海康威视数字技术股份有限公司 泊位位置确定方法、装置、电子设备及存储介质
JP2020162089A (ja) * 2019-03-28 2020-10-01 株式会社デンソーテン 画像生成装置および画像生成方法
EP4258653A1 (en) 2022-04-06 2023-10-11 Canon Kabushiki Kaisha Image processing device that can measure distance to object, movable apparatus, image processing method, and storage medium

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6365385B2 (ja) * 2015-04-17 2018-08-01 トヨタ自動車株式会社 立体物検出装置及び立体物検出方法
JP6575445B2 (ja) 2015-09-30 2019-09-18 アイシン精機株式会社 車両用画像処理装置
FR3044274B1 (fr) * 2015-11-27 2017-11-24 Renault Sas Systeme multimedia de vehicule automobile
DE112017006840B4 (de) * 2017-01-16 2023-11-02 Fujitsu Limited Informationsverarbeitungsprogramm, Informationsverarbeitungsverfahren und Informationsverarbeitungsvorrichtung
JP6948175B2 (ja) * 2017-07-06 2021-10-13 キヤノン株式会社 画像処理装置およびその制御方法
JP2019086310A (ja) * 2017-11-02 2019-06-06 株式会社日立製作所 距離画像カメラ、距離画像カメラシステム、及びそれらの制御方法
DE102019123778A1 (de) * 2019-09-05 2021-03-11 Valeo Schalter Und Sensoren Gmbh Darstellen einer Fahrzeugumgebung zum Bewegen des Fahrzeugs zu einer Zielposition
CN112509179B (zh) * 2020-12-18 2024-07-30 大连理工大学 具有全向碰撞感知和车内外三维场景重现的汽车黑匣子
US11954798B2 (en) * 2021-04-22 2024-04-09 Faro Technologies, Inc. Automatic selection of a region in a three-dimensional (3D) point cloud

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0686200U (ja) * 1993-05-13 1994-12-13 矢崎総業株式会社 車両周辺監視装置
JPH11161159A (ja) * 1997-11-28 1999-06-18 Hitachi Ltd 3次元地図表示装置
JP2000029384A (ja) * 1998-07-13 2000-01-28 Monolith:Kk 地形情報データの処理方法
JP2000339465A (ja) * 1999-05-28 2000-12-08 Minolta Co Ltd 3次元形状の対応付け方法
JP2001319225A (ja) * 2000-05-12 2001-11-16 Minolta Co Ltd 3次元入力装置
US20110282581A1 (en) * 2010-05-12 2011-11-17 Gm Global Technology Operations, Inc. Object and vehicle detection and tracking using 3-d laser rangefinder
WO2013018173A1 (ja) * 2011-07-29 2013-02-07 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム
JP2013088999A (ja) * 2011-10-18 2013-05-13 Aero Asahi Corp 建物抽出装置、方法及びプログラム
JP2013157745A (ja) * 2012-01-27 2013-08-15 Mitsubishi Heavy Ind Ltd 送信装置、表示装置、及び表示システム

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2874710B2 (ja) * 1996-02-26 1999-03-24 日本電気株式会社 三次元位置計測装置
JP2002083285A (ja) * 2000-07-07 2002-03-22 Matsushita Electric Ind Co Ltd 画像合成装置および画像合成方法
US20020134151A1 (en) * 2001-02-05 2002-09-26 Matsushita Electric Industrial Co., Ltd. Apparatus and method for measuring distances
DE10317044A1 (de) * 2003-04-11 2004-10-21 Daimlerchrysler Ag Freiraumüberwachung bei Kraftfahrzeugen
JP4406381B2 (ja) * 2004-07-13 2010-01-27 株式会社東芝 障害物検出装置及び方法
EP1717757A1 (de) * 2005-04-28 2006-11-02 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur grafischen Darstellung der Umgebung eines Kraftfahrzeugs
DE102005022819A1 (de) * 2005-05-12 2006-11-16 Nanofocus Ag Verfahren zur Bestimmung der absoluten Dicke von nicht transparenten und transparenten Proben mittels konfokaler Messtechnik
US7741961B1 (en) * 2006-09-29 2010-06-22 Canesta, Inc. Enhanced obstacle detection and tracking for three-dimensional imaging systems used in motor vehicles
JP4492654B2 (ja) * 2007-08-29 2010-06-30 オムロン株式会社 3次元計測方法および3次元計測装置
WO2012017560A1 (ja) 2010-08-06 2012-02-09 富士通株式会社 画像処理装置および画像処理プログラム
US8648702B2 (en) * 2010-08-20 2014-02-11 Denso International America, Inc. Combined time-of-flight and image sensor systems
DE102011084554A1 (de) * 2011-10-14 2013-04-18 Robert Bosch Gmbh Verfahren zur Darstellung eines Fahrzeugumfeldes
US9996974B2 (en) * 2013-08-30 2018-06-12 Qualcomm Incorporated Method and apparatus for representing a physical scene

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0686200U (ja) * 1993-05-13 1994-12-13 矢崎総業株式会社 車両周辺監視装置
JPH11161159A (ja) * 1997-11-28 1999-06-18 Hitachi Ltd 3次元地図表示装置
JP2000029384A (ja) * 1998-07-13 2000-01-28 Monolith:Kk 地形情報データの処理方法
JP2000339465A (ja) * 1999-05-28 2000-12-08 Minolta Co Ltd 3次元形状の対応付け方法
JP2001319225A (ja) * 2000-05-12 2001-11-16 Minolta Co Ltd 3次元入力装置
US20110282581A1 (en) * 2010-05-12 2011-11-17 Gm Global Technology Operations, Inc. Object and vehicle detection and tracking using 3-d laser rangefinder
WO2013018173A1 (ja) * 2011-07-29 2013-02-07 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム
JP2013088999A (ja) * 2011-10-18 2013-05-13 Aero Asahi Corp 建物抽出装置、方法及びプログラム
JP2013157745A (ja) * 2012-01-27 2013-08-15 Mitsubishi Heavy Ind Ltd 送信装置、表示装置、及び表示システム

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101767434B1 (ko) * 2015-11-17 2017-08-14 현대오트론 주식회사 헤드업 디스플레이를 이용한 차선 표시장치 및 그 방법
JP2019504382A (ja) * 2015-11-24 2019-02-14 コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツングConti Temic microelectronic GmbH アダプティブな周辺画像データ処理を有するドライバー・アシスタント・システム
CN108290499B (zh) * 2015-11-24 2022-01-11 康蒂-特米克微电子有限公司 带有自适应周围环境图像数据处理功能的驾驶员辅助系统
CN108290499A (zh) * 2015-11-24 2018-07-17 康蒂-特米克微电子有限公司 带有自适应周围环境图像数据处理功能的驾驶员辅助系统
JPWO2018061613A1 (ja) * 2016-09-30 2019-06-24 本田技研工業株式会社 車両制御装置
CN109844840A (zh) * 2016-09-30 2019-06-04 本田技研工业株式会社 车辆控制装置
WO2018061613A1 (ja) * 2016-09-30 2018-04-05 本田技研工業株式会社 車両制御装置
JP2018139107A (ja) * 2017-01-20 2018-09-06 ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツングRobert Bosch Gmbh 車両の周辺を表示する方法
JP7103791B2 (ja) 2017-01-20 2022-07-20 ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツング 車両の周辺を表示する方法
JP2020162089A (ja) * 2019-03-28 2020-10-01 株式会社デンソーテン 画像生成装置および画像生成方法
JP7318265B2 (ja) 2019-03-28 2023-08-01 株式会社デンソーテン 画像生成装置および画像生成方法
CN111429469A (zh) * 2019-04-17 2020-07-17 杭州海康威视数字技术股份有限公司 泊位位置确定方法、装置、电子设备及存储介质
CN111429469B (zh) * 2019-04-17 2023-11-03 杭州海康威视数字技术股份有限公司 泊位位置确定方法、装置、电子设备及存储介质
EP4258653A1 (en) 2022-04-06 2023-10-11 Canon Kabushiki Kaisha Image processing device that can measure distance to object, movable apparatus, image processing method, and storage medium

Also Published As

Publication number Publication date
EP2863365A3 (en) 2015-06-03
US20150098623A1 (en) 2015-04-09
JP6149676B2 (ja) 2017-06-21
EP2863365A2 (en) 2015-04-22

Similar Documents

Publication Publication Date Title
JP6149676B2 (ja) 画像処理装置、画像処理方法、及び、プログラム
US11373357B2 (en) Adjusting depth of augmented reality content on a heads up display
US9633266B2 (en) Image processing apparatus and method that synthesizes an all-round image of a vehicle's surroundings
JP5369465B2 (ja) 車両用画像処理装置、車両用画像処理方法、車両用画像処理プログラム
JP5013773B2 (ja) 車載画像処理装置及びその視点変換情報生成方法
JP2015074436A (ja) 画像処理装置、画像処理方法、及び、プログラム
KR20120140515A (ko) 차량 주변 시각화를 위한 3차원 영상 합성장치 및 그 방법
JP5299296B2 (ja) 車両周辺画像表示装置及び車両周辺画像表示方法
JP2010129063A (ja) 運転模擬装置、広角カメラ映像模擬装置および画像変形合成装置
JP2020107089A (ja) 画像処理装置及び画像処理方法
WO2023276567A1 (ja) 画像処理装置、画像処理方法、及びプログラム
US11580689B2 (en) Information display control device, method, and non-transitory computer-readable recording medium
CN115222815A (zh) 障碍物距离检测方法、装置、计算机设备和存储介质
JP2023077658A (ja) 画像処理装置、画像処理方法、及びプログラム
KR102329031B1 (ko) 3D 모델링 가시화 시스템의 최대 Zoom 레벨을 결정 방법
JP2013207622A (ja) キャリブレーション装置及びキャリブレーション方法
JP6060612B2 (ja) 移動面状況認識装置、移動体、及びプログラム
JP6385621B2 (ja) 画像表示装置、画像表示方法及び画像表示プログラム
CN118397200B (zh) 用于自动泊车过程中场景重建的方法、装置和设备
CN115665400B (zh) 增强现实抬头显示成像方法、装置、设备以及存储介质
JP6948363B2 (ja) 情報処理装置、情報処理方法、およびプログラム
CN118397200A (zh) 用于自动泊车过程中场景重建的方法、装置和设备
CN110942498A (zh) 一种建立hud系统图像翘曲形变模型的方法
JPWO2019058734A1 (ja) 情報表示装置及び方法、並びにプログラム及び記録媒体
JP2002230579A (ja) 画像作成方法および装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160606

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170328

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170425

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170508

R150 Certificate of patent or registration of utility model

Ref document number: 6149676

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees