JP2010076527A - 操縦支援装置 - Google Patents

操縦支援装置 Download PDF

Info

Publication number
JP2010076527A
JP2010076527A JP2008245213A JP2008245213A JP2010076527A JP 2010076527 A JP2010076527 A JP 2010076527A JP 2008245213 A JP2008245213 A JP 2008245213A JP 2008245213 A JP2008245213 A JP 2008245213A JP 2010076527 A JP2010076527 A JP 2010076527A
Authority
JP
Japan
Prior art keywords
bird
eye view
automobile
detection
laser
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2008245213A
Other languages
English (en)
Inventor
Hitoshi Hongo
仁志 本郷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2008245213A priority Critical patent/JP2010076527A/ja
Priority to US13/063,905 priority patent/US20110169954A1/en
Priority to CN2009801379440A priority patent/CN102165503A/zh
Priority to EP09816045A priority patent/EP2330581A1/en
Priority to PCT/JP2009/065575 priority patent/WO2010035628A1/ja
Publication of JP2010076527A publication Critical patent/JP2010076527A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/27Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/103Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using camera systems provided with artificial illumination device, e.g. IR light source
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/301Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with other obstacle sensor information, e.g. using RADAR/LIDAR/SONAR sensors for estimating risk of collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/303Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using joined images, e.g. multiple camera images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/607Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective from a bird's eye viewpoint

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Studio Devices (AREA)

Abstract

【構成】レーザ照射器L_N(N:1〜4)は、自動車に設けられてレーザ光を斜め下方向に向けて放射する。カメラC_Nはそれぞれ、自動車に設けられてレーザ光L_Nの放射方向に対応する視野VW_Nを有する。CPUは、レーザ照射器L_Nによって放射されたレーザ光の反射位置の変化量が基準を上回るか否かを、カメラC_Nの出力に基づいて判別する。レーザ照射器L_Nの放射方向は、判別結果が否定的な結果から肯定的な結果に更新されたとき、CPUによって変更される。レーザ照射器L_Nによって放射されたレーザ光の反射位置の変化の態様は、放射方向の変更処理と並列するカメラC_Nの出力に基づいて、CPUによって検出される。CPUは、この検出結果に応じて異なる報知を自動車の運転手に向けて出力する。
【効果】処理量を抑えつつ、障害物の検知精度を確保することができる。
【選択図】図3

Description

この発明は、操縦支援装置に関し、特に、自動車のような移動体に設けられて周辺の障害物を検知する、操縦支援装置に関する。
この種の装置の一例が、特許文献1に開示されている。この背景技術によれば、投光装置は、車両後方の路面に向けて、互いに異なる複数の投光角度でスポット光ビームを投光する。投光されたスポット光ビームの輝点を含む車両後方の映像は、カメラによって捉えられる。コントロールユニットは、カメラによって捉えられた映像から輝点を検出し、検出結果に基づいて車両後方の路面状況を算出する。コントロールユニットはさらに、算出された路面状況を参照して車両の通過に問題のある範囲を決定し、決定された範囲を表す画像をディスプレイに表示する。
特開2002−36987号公報
しかし、背景技術によれば、路面状況を算出するために、スポット光ビームの投光角度を継続的に変更する必要がある。換言すれば、こうして投光されるスポット光ビームに基づく路面状況の算出には、複雑な処理が要求される。
それゆえに、この発明の主たる目的は、処理能力を抑えつつ障害物の検知精度を確保することができる、操縦支援装置を提供することである。
この発明に従う操縦支援装置(10:実施例で相当する参照符号。以下同じ)は、移動体に設けられて光線を斜め下方向に放射する放射手段(L_1~L_4)、移動体に設けられて放射手段の放射方向に対応する視野を有する撮像手段(C_1~C_4)、放射手段によって放射された光線の反射位置の変化量が基準を上回るか否かを撮像手段の出力に基づいて判別する判別手段(S21, S23)、判別手段の判別結果が否定的な結果から肯定的な結果に更新されたとき放射手段の放射方向を変更する変更手段(S27)、放射手段によって放射された光線の反射位置の変化の態様を変更手段の変更処理と並列する撮像手段の出力に基づいて検出する検出手段(S33)、および検出手段の検出結果に応じて異なる報知を移動体の操縦者に向けて出力する報知手段(S35, S37)を備える。
放射手段は、移動体に設けられて光線を斜め下方向に向けて放射する。撮像手段は、移動体に設けられて放射手段の放射方向に対応する視野を有する。判別手段は、放射手段によって放射された光線の反射位置の変化量が基準を上回るか否かを、撮像手段の出力に基づいて判別する。放射手段の放射方向は、判別手段の判別結果が否定的な結果から肯定的な結果に更新されたとき、変更手段によって変更される。放射手段によって放射された光線の反射位置の変化の態様は、変更手段の変更処理と並列する撮像手段の出力に基づいて、検出手段によって検出される。報知手段は、検出手段の検出結果に応じて異なる報知を移動体の操縦者に向けて出力する。
このように、放射手段の放射方向は、光線の反射位置の変化量が基準を上回ったときに変更される。また、移動体の操縦者に向けて出力される報知は、放射方向が変更された光線の反射位置の変化の態様に応じて異なる。これによって、処理量を抑えつつ、障害物の検知精度を確保することができる。
好ましくは、放射手段は撮像手段の視野の左右方向に延びる線状の光線を放射し、変更手段は放射方向を上方向に変更する。
好ましくは、検出手段は、検出手段の検出結果が反射する光線の消失を示すとき報知を第1態様で出力する第1報知手段(S35)、および検出手段の検出結果が反射する光線の少なくとも一部の検出を示すとき報知を第2態様で出力する第2報知手段(S37)を含む。
好ましくは、撮像手段の出力に基づいて鳥瞰図画像を作成する作成手段(S5)がさらに備えられ、判別手段および検出手段はそれぞれ作成手段によって作成された鳥瞰図画像を参照して判別処理および検出処理を実行する。
好ましくは、撮像手段は移動体の周辺に設けられる複数のカメラを含み、放射手段は複数のカメラにそれぞれ割り当てられる複数のレーザ照射器を含み、判別手段の判別処理のために注目されるカメラおよびレーザ照射器を繰り返し更新する更新手段(S25)がさらに備えられる。
好ましくは、更新手段の更新態様を移動体の移動速度および移動体の移動方向の少なくとも一方に応じて異なる態様に設定する設定手段(S67, S71, S79, S83, S89, S93)がさらに備えられる。
好ましくは、移動体の移動速度および移動体の移動方向の少なくとも一方を参照して撮像手段の撮像方向および放射手段の放射方向を調整する調整手段(S57, S59, S65, S69, S77, S81, S87, S91)がさらに備えられ、変更手段は調整手段によって調整された放射方向を基準として放射方向変更処理を実行する。
この発明に従う操縦支援プログラムは、移動体に設けられて光線を斜め下方向に放射する放射手段(L_1~L_4)、および移動体に設けられて放射手段の放射方向に対応する視野を有する撮像手段(C_1~C_4)を備える操縦支援装置(10)のプロセッサ(12p)に、放射手段によって放射された光線の反射位置の変化量が基準を上回るか否かを撮像手段の出力に基づいて判別する判別ステップ(S21, S23)、判別ステップの判別結果が否定的な結果から肯定的な結果に更新されたとき放射手段の放射方向を変更する変更ステップ(S27)、放射手段によって放射された光線の反射位置の変化の態様を変更ステップの変更処理と並列する撮像手段の出力に基づいて検出する検出ステップ(S33)、および検出ステップの検出結果に応じて異なる報知を移動体の操縦者に向けて出力する報知ステップ(S35, S37)を実行させるための、操縦支援プログラムである。
この発明に従う操縦支援方法は、移動体に設けられて光線を斜め下方向に放射する放射手段(L_1~L_4)、および移動体に設けられて放射手段の放射方向に対応する視野を有する撮像手段(C_1~C_4)を備える操縦支援装置(10)によって実行される操縦支援方法であって、放射手段によって放射された光線の反射位置の変化量が基準を上回るか否かを撮像手段の出力に基づいて判別する判別ステップ(S21, S23)、判別ステップの判別結果が否定的な結果から肯定的な結果に更新されたとき放射手段の放射方向を変更する変更ステップ(S27)、放射手段によって放射された光線の反射位置の変化の態様を変更ステップの変更処理と並列する撮像手段の出力に基づいて検出する検出ステップ(S33)、および検出ステップの検出結果に応じて異なる報知を移動体の操縦者に向けて出力する報知ステップ(S35, S37)を備える。
この発明によれば、放射手段の放射方向は、光線の反射位置の変化量が基準を上回ったときに変更される。また、移動体の操縦者に向けて出力される報知は、放射方向が変更された光線の反射位置の変化の態様に応じて異なる。これによって、処理量を抑えつつ、障害物の検知精度を確保することができる。
この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。
図1に示すこの実施例の操縦支援装置10は、4個のレーザ照射器L_1〜L_4と4個のカメラC_1〜C_4とを含む。レーザ照射器L_1〜L_4の各々は、近赤外領域に属する波長を有し、かつ水平方向に線状に延びるレーザ光を発生する。また、カメラC_1〜C_4はそれぞれ、共通の垂直同期信号Vsyncに応答して被写界像P_1〜P_4を1/30秒毎に出力する。出力された被写界像P_1〜P_4は、画像処理回路12によって取り込まれる。
図2(A)〜図2(D)を参照して、操縦支援装置10は、地面を走行する自動車100に搭載される。具体的には、レーザ照射器L_1は、自動車100の前方斜め下を向く姿勢で、自動車100の前部の幅方向中央でかつ高さ方向下側に設置される。カメラC_1は、自動車100の前方斜め下を向く姿勢で、自動車100の前部のほぼ中央に設置される。
レーザ照射器L_2は、自動車100の右斜め下を向く姿勢で、自動車100の右側のほぼ中央に設置される。カメラC_2は、自動車100の右斜め下を向く姿勢で、自動車100の右側の幅方向ほぼ中央でかつ高さ方向上側に設置される。
レーザ照射器L_3は、自動車100の後方斜め下を向く姿勢で、自動車100の後部のほぼ中央に設置される。カメラC_3は、自動車100の後方斜め下を向く姿勢で、自動車100の後部の幅方向ほぼ中央でかつ高さ方向上側に設置される。
レーザ照射器L_4は、自動車100の左斜め下を向く姿勢で、自動車100の左側のほぼ中央に設置される。カメラC_4は、自動車100の左斜め下を向く姿勢で、自動車100の左側の幅方向ほぼ中央でかつ高さ方向上側に設置される。
自動車100と障害物が存在しない自動車100の周辺の地面とを鳥瞰した状態を図3に示す。図3によれば、レーザ照射器L_1から放射されたレーザ光は、自動車100の前方の地面に左右に延びる輝線G_1を描く。レーザ照射器L_2から放射されたレーザ光は、自動車100の右側の地面に前後に延びる輝線G_2を描く。レーザ照射器L_3から放射されたレーザ光は、自動車100の後方の地面に左右に延びる輝線G_3を描く。レーザ照射器L_4から放射されたレーザ光は、自動車100の左側の地面に前後に延びる輝線G_4を描く。
カメラC_1は自動車100の前方を捉える視野VW_1を有し、カメラC_2は自動車100の右方向を捉える視野VW_2を有し、カメラC_3は自動車100の後方を捉える視野VW_3を有し、そしてカメラC_4は自動車100の左方向を捉える視野VW_4を有する。また、視野VW_1およびVW_2は共通視野VW_12を有し、視野VW_2およびVW_3は共通視野VW_23を有し、視野VW_3およびVW_4は共通視野VW_34を有し、そして視野VW_4およびVW_1は共通視野VW_41を有する。
つまり、自動車100の周囲に障害物が存在しない状態では、輝線G_1〜G_4のいずれも直線状に延び、かつ輝線G_1〜G_4はカメラC_1〜C_4によってそれぞれ捉えられる。
図1に戻って、画像処理回路12に設けられたCPU12pは、カメラC_1から出力された被写界像P_1に基づいて図4(A)に示す鳥瞰図画像BEV_1を生成し、カメラC_2から出力された被写界像P_2に基づいて図4(B)に示す鳥瞰図画像BEV_2を生成する。CPU12pはまた、カメラC_3から出力された被写界像P_3に基づいて図4(C)に示す鳥瞰図画像BEV_3を生成し、カメラC_4から出力された被写界像P_4に基づいて図4(D)に示す鳥瞰図画像BEV_4を生成する。
鳥瞰図画像BEV_1は視野VW_1を鉛直方向に見下ろす仮想カメラによって捉えられた画像に相当し、鳥瞰図画像BEV_2は視野VW_2を鉛直方向に見下ろす仮想カメラによって捉えられた画像に相当する。また、鳥瞰図画像BEV_3は視野VW_3を鉛直方向に見下ろす仮想カメラによって捉えられた画像に相当し、鳥瞰図画像BEV_4は視野VW_4を鉛直方向に見下ろす仮想カメラによって捉えられた画像に相当する。
図4(A)〜図4(D)によれば、鳥瞰図画像BEV_1は鳥瞰図座標系X1・Y1を有し、鳥瞰図画像BEV_2は鳥瞰図座標系X2・Y2を有し、鳥瞰図画像BEV_3は鳥瞰図座標系X3・Y3を有し、そして鳥瞰図画像BEV_4は鳥瞰図座標系X4・Y4を有する。このような鳥瞰図画像BEV_1〜BEV_4は、メモリ12mのワークエリアW1に保持される。
CPU12pは続いて、鳥瞰図画像BEV_1〜BEV_4を座標変換によって互いに結合する。鳥瞰図画像BEV_2〜BEV_4は鳥瞰図画像BEV_1を基準として回転および/または移動し、この結果、図5に示す全周鳥瞰図画像がメモリ12mのワークエリアW2内に得られる。
図5において、重複エリアOL_12が共通視野VW_12を再現するエリアに相当し、重複エリアOL_23が共通視野VW_23を再現するエリアに相当する。また、重複エリアOL_34が共通視野VW_34を再現するエリアに相当し、そして重複エリアOL_41が共通視野VW_41を再現するエリアに相当する。
自動車100の運転席に設置された表示装置16は、重複エリアOL_12〜OL_41が四隅に位置する一部の画像D1をワークエリアW2上の全周鳥瞰図画像から抽出し、自動車100の上部を模した車両画像D2を抽出された画像D1の中央に貼り付ける。この結果、図6に示す操縦支援画像がモニタ画面に表示される。
次に、鳥瞰図画像BEV_1〜BEV_4の作成要領について説明する。ただし、鳥瞰図画像BEV_1〜BEV_4はいずれも同じ要領で作成されるため、鳥瞰図画像BEV_1〜BEV_4を代表して鳥瞰図画像BEV3の作成要領を説明する。
図7を参照して、カメラC_3は自動車100の後部に後方斜め下向きに配置される。カメラC_3の俯角を“θd”とすると、図7に示す角度θは“180°−θd”に相当する。また、角度θは、90°<θ<180°の範囲で定義される。
図8は、カメラ座標系X・Y・Zと、カメラC_3の撮像面Sの座標系Xp・Ypと、世界座標系Xw・Yw・Zwとの関係を示す。カメラ座標系X・Y・Zは、X軸,Y軸およびZ軸を座標軸とする三次元の座標系である。座標系Xp・Ypは、Xp軸およびYp軸を座標軸とする二次元の座標系である。世界座標系Xw・Yw・Zwは、Xw軸,Yw軸およびZw軸を座標軸とする三次元の座標系である。
カメラ座標系X・Y・Zでは、カメラC3の光学的中心を原点Oとして、光軸方向にZ軸が定義され、Z軸に直交しかつ地面に平行な方向にX軸が定義され、そしてZ軸およびX軸に直交する方向にY軸が定義される。撮像面Sの座標系Xp・Ypでは、撮像面Sの中心を原点として、撮像面Sの横方向にXp軸が定義され、撮像面Sの縦方向にYp軸が定義される。
世界座標系Xw・Yw・Zwでは、カメラ座標系XYZの原点Oを通る鉛直線と地面との交点を原点Owとして、地面と垂直な方向にYw軸が定義され、カメラ座標系X・Y・ZのX軸と平行な方向にXw軸が定義され、そしてXw軸およびYw軸に直交する方向にZw軸が定義される。また、Xw軸からX軸までの距離は“h”であり、Zw軸およびZ軸によって形成される鈍角が上述の角度θに相当する。
カメラ座標系X・Y・Zにおける座標を(x,y,z)と表記した場合、“x”,“y”および“z”はそれぞれ、カメラ座標系X・Y・ZにおけるX軸成分,Y軸成分およびZ軸成分を示す。撮像面Sの座標系Xp・Ypにおける座標を(xp,yp)と表記した場合、“xp”および“yp”はそれぞれ、撮像面Sの座標系Xp・YpにおけるXp軸成分およびYp軸成分を示す。世界座標系Xw・Yw・Zwにおける座標を(xw,yw,zw)と表記した場合、“xw”,“yw”および“zw”はそれぞれ、世界座標系Xw・Yw・ZwにおけるXw軸成分,Yw軸成分およびZw軸成分を示す。
カメラ座標系X・Y・Zの座標(x,y,z)と世界座標系Xw・Yw・Zwの座標(xw,yw,zw)との間の変換式は、数1で表される。
Figure 2010076527
ここで、カメラC_3の焦点距離を“f”とすると、撮像面Sの座標系Xp・Ypの座標(xp,yp)とカメラ座標系X・Y・Zの座標(x,y,z)との間の変換式は、数2で表される。
Figure 2010076527
また、数1および数2に基づいて数3が得られる。数3は、撮像面Sの座標系Xp・Ypの座標(xp,yp)と二次元地面座標系Xw・Zwの座標(xw,zw)との間の変換式を示す。
Figure 2010076527
また、図4(C)に示す鳥瞰図画像BEV_3の座標系である鳥瞰図座標系X3・Y3が定義される。鳥瞰図座標系X3・Y3は、X3軸及びY3軸を座標軸とする二次元の座標系である。鳥瞰図座標系X3・Y3における座標を(x3,y3)と表記した場合、鳥瞰図画像BEV_3を形成する各画素の位置は座標(x3,y3)によって表される。“x3”および“y3”はそれぞれ、鳥瞰図座標系X3・Y3におけるX3軸成分およびY3軸成分を示す。
地面を表す二次元座標系Xw・Zwから鳥瞰図座標系X3・Y3への投影は、いわゆる平行投影に相当する。仮想カメラつまり仮想視点の高さを“H”とすると、二次元座標系Xw・Zwの座標(xw,zw)と鳥瞰図座標系X3・Y3の座標(x3,y3)との間の変換式は、数4で表される。仮想カメラの高さHは予め決められている。
Figure 2010076527
さらに、数4に基づいて数5が得られ、数5および数3に基づいて数6が得られ、そして数6に基づいて数7が得られる。数7は、撮像面Sの座標系Xp・Ypの座標(xp,yp)を鳥瞰図座標系X3・Y3の座標(x3,y3)に変換するための変換式に相当する。
Figure 2010076527
Figure 2010076527
Figure 2010076527
撮像面Sの座標系Xp・Ypの座標(xp,yp)は、カメラC_3によって捉えられた被写界像P_3の座標を表す。したがって、カメラC3からの被写界像P_3は、数7を用いることによって鳥瞰図画像BEV_3に変換される。実際には、被写界像P_3はまずレンズ歪み補正などの画像処理を施され、その後に数7によって鳥瞰図画像BEV_3に変換される。
続いて、自動車100の周辺から障害物を検知する動作について説明する。CPU12pはまず、変数Nを“1”〜“4”のいずれかに設定し、ワークエリアW1に確保された鳥瞰図画像BEV_Nを垂直同期信号Vsyncに応答してワークエリアW3に複製する。図3を参照して上述したように、自動車100の周辺に障害物が存在しないとき、輝線G_1〜G_4は視野VW_1〜VW_4にそれぞれ属する。したがって、周辺に障害物が存在しない限り、複製された鳥瞰図画像BEV_Nには輝線G_Nが現れる。
CPU12pは、この輝線G_Nを鳥瞰図画像BEV_Nから検出し、輝線G_Nの変化量を“ΔG_N”として検出する。検出される変化量ΔG_Nは、障害物が周辺に存在しない状態で検出された輝線G_Nと最新の輝線G_Nとの相違に相当し、障害物に起因する輝線G_Nの歪み部分の大きさを表す。
自動車100が図9(A)および図10(A)に示す要領で後方の障害物OBJ1に接近した場合、鳥瞰図画像BEV_3に現れる輝線G_3は、図9(B)および図10(B)に示す要領で変化する。自動車100が図12(A)および図13(A)に示す要領で後方の障害物OBJ2に接近した場合も、鳥瞰図画像BEV_3に現れる輝線G_3は、図12(B)および図13(B)に示す要領で変化する。この場合、図10(B)または図13(B)に示す輝線G_3の歪み部分の大きさが、変化量ΔG_Nに相当する。
CPU12pは、検出された変化量ΔG_Nを基準REFと比較し、ΔG_N≦REFであれば変数Nを更新する。更新前の変数Nが“1”であれば更新後の変数Nは“2”を示し、更新前の変数Nが“2”であれば更新後の変数Nは“3”を示す。また、更新前の変数Nが“3”であれば更新後の変数Nは“4”を示し、更新前の変数Nが“4”であれば更新後の変数Nは“1”を示す。このように、変数Nは循環的に更新される。変数Nの更新処理が完了すると、CPU12pは上述の処理に戻る。
一方、ΔG_N>REFであれば、CPU12pは、レーザ照射器L_Nの照射方向を既定角度だけ上方に変更する。既定角度は、自動車100の周辺に障害物が存在しない場合に輝線G_NがカメラC_Nの視野VW_Nから外れる角度に相当する。
図10(A)および図10(B)の状態でレーザ照射器L_3の照射方向を既定角度だけ上方に変更した場合、レーザ光は図11(A)に示す要領で放射され、輝線G_3は図11(B)に示す要領で障害物OBJ1および地面に描かれる。また、図13(A)および図13(B)の状態でレーザ照射器L_3の照射方向を既定角度だけ上方に変更した場合、レーザ光は図14(A)に示す要領で放射され、輝線G_3は図14(B)に示す要領で地面に描かれる。
CPU12pは、レーザ照射器L_Nの照射方向が変更された後にワークエリアW1に確保された鳥瞰図画像BEV_NをワークエリアW3に複製し、複製された鳥瞰図画像BEV_Nから輝線G_Nが消失したか否かを判別する。輝線G_Nの少なくとも一部が鳥瞰図画像BEV_Nに現れれば、CPU12pは、運転席に設けられた警告ランプ18を制御して赤色の警告を発生する。これに対して、輝線G_Nが鳥瞰図画像BEV_Nに全く現れなければ、警告ランプ18を制御して黄色の警告を発生する。
図11(B)によれば、輝線G_3の一部が鳥瞰図画像BEV_3に現れる。これに対して、図14(B)によれば、輝線G_3は鳥瞰図画像BEV_3から完全に消失する。したがって、警告ランプ18は、障害物OBJ1に対応して赤色の警告を発生し、障害物OBJ2に対応して黄色の警告を発生する。
こうして警告が発生された後に、運転手が操作パネル20に向けて警告停止操作を行うと、CPU12pは、警告ランプ18を停止し、レーザ照射器L_Nの照射方向を元に戻し、その後に上述の処理に戻る。
CPU12pは、具体的には図15に示す画像作成タスクおよび図16〜図17に示す障害物検知タスクを含む複数のタスクを並列的に実行する。なお、これらのタスクに対応する制御プログラムは、フラッシュメモリ14(図1参照)に記憶される。
図15を参照して、垂直同期信号Vsyncが発生するとステップS1からステップS3に進み、カメラC_1〜C_4から被写界像P_1〜P_4をそれぞれ取り込む。ステップS5では、取り込まれた被写界像P_1〜P_4に基づいて鳥瞰図画像BEV_1〜BEV_4を作成する。作成された鳥瞰図画像BEV_1〜BEV_4は、ワークエリアW1に確保される。ステップS7では、ワークエリアW1上の鳥瞰図画像BEV_1〜BEV_4を合成して全周鳥瞰図画像を作成する。作成された全周鳥瞰図画像は、ワークエリアW2に確保される。表示装置16のモニタ画面には、ワークエリアW2に確保された全周鳥瞰図画像に基づく操縦支援画像が表示される。ステップS7の処理が完了すると、ステップS1に戻る。
図16を参照して、ステップS11ではレーザ照射器L_1〜L_4を起動し、ステップS13では変数Nを“1”に設定する。垂直同期信号Vsyncが発生するとステップS15からステップS17に進み、ワークエリアW1上の鳥瞰図画像BEV_NをワークエリアW3に複製する。ステップS19では複製された鳥瞰図画像BEV_Nから輝線G_Nを検出し、ステップS21では輝線G_Nの変化量を“ΔG_N”として検出する。ステップS23では検出された変化量ΔG_Nが基準REFを上回るか否かを判別し、NOであればステップS25の処理を経てステップS15に戻る一方、YESであればステップS27〜S41の処理を経てステップS15に戻る。
ステップS25では、変数Nを“1”〜“4”の間で更新する。変数Nが“1”であれば更新後の変数Nは“2”を示し、更新前の変数Nが“2”であれば更新後の変数Nは“3”を示す。また、更新前の変数Nが“3”であれば更新後の変数Nは“4”を示し、更新前の変数Nが“4”であれば更新後の変数Nは“1”を示す。
ステップS27では、レーザ照射器L_Nの照射方向を既定角度だけ上方に変更する。垂直同期信号Vsyncが発生するとステップS29からステップS31に進み、ワークエリアW1に確保された次フレームの鳥瞰図画像BEV_NをワークエリアW3に複製する。ステップS33では、複製された鳥瞰図画像BEV_Nから輝線G_Nが消失したか否かを判別する。輝線G_Nが鳥瞰図画像BEV_Nから全く検出されないときはステップS35に進み、輝線G_Nの少なくとも一部が鳥瞰図画像BEV_Nから検出されたときはステップS37に進む。
ステップS35では、警告ランプ18を制御して黄色の警告を発生する。ステップS37では、警告ランプ18を制御して赤色の警告を発生する。ステップS35またはS37の処理が完了すると、警告停止操作が行われたか否かをステップS39で判別する。判別結果がNOからYESに更新されると、ステップS41で警告ランプ18を停止し、ステップS43でレーザ照射器L_Nの照射方向を元に戻し、その後にステップS13に戻る。
以上の説明から分かるように、レーザ照射器L_N(N:1〜4)は、自動車100に設けられてレーザ光を斜め下方向に向けて放射する。放射されたレーザ光は、地面に輝線G_Nを描く。カメラC_Nはそれぞれ、自動車100に設けられてレーザ光L_Nの放射方向に対応する視野VW_Nを有する。
CPU12pは、レーザ照射器L_Nによって放射されたレーザ光の反射位置の変化量つまり輝線G_Nの変化量が基準REFを上回るか否かを、カメラC_Nの出力に基づいて判別する(S23)。レーザ照射器L_Nの放射方向は、判別結果が否定的な結果から肯定的な結果に更新されたとき、CPU12pによって変更される(S27)。
輝線G_Nの変化の態様は、放射方向の変更処理と並列するカメラC_Nの出力に基づいて、CPU12pによって検出される(S33)。CPU12pは、この検出結果に応じて異なる報知を自動車100の運転手に向けて出力する(S35, S37)。
このように、レーザ照射器L_Nの放射方向は、輝線G_Nの変化量が基準REFを上回ったときに変更される。また、自動車100の運転手に向けて出力される報知は、輝線G_Nの変化の態様に応じて異なる。これによって、処理量を抑えつつ、障害物の検知精度を確保することができる。
なお、この実施例では、カメラC_1〜C_4の向きは固定的であり、レーザ照射器L_1〜L_4の向きもまた図17に示すステップS27で上向きに変更される点を除き固定的である。また、変数Nは、“1”〜“4”の間で循環的に更新される。
しかし、自動車100の移動速度を検知する速度センサ22および自動車100の移動方向を検知する方向センサ24を図18に示すように追加し、速度センサ22および方向センサ24の出力に基づいてカメラC_1〜C_4およびレーザ照射器L_1〜L_4の向きを調整したり、速度センサ22および方向センサ24の出力に基づいて変数Nの更新態様を調整したりするようにしてもよい。この場合、好ましくは、CPU12pは、図19〜図21に示す調整タスクをさらに実行する。
図19を参照して、ステップS51では速度センサ22の出力に基づいて自動車100の移動速度を算出し、ステップS53では方向センサ24の出力に基づいて自動車100の移動方向を算出する。ステップS55では移動速度が低速であるか否か(つまり移動速度が閾値を下回るか否か)を判別し、ステップS61では移動方向が前方であるか否かを判別し、ステップS63では移動方向が後方であるか否かを判別する。さらに、ステップS73では移動方向が右前方であるか否かを判別し、ステップS75では移動方向が右後方であるか否かを判別し、ステップS85では移動方向が左前方であるか否かを判別する。
ステップS55でYESであれば、ステップS57でカメラC_1〜C_4の角度(撮像方向)およびレーザ照射器L_1〜L_4の角度(放射方向)を初期化し、ステップS59でカメラC_1〜C_4の重み付け量を初期化する。ステップS59の処理が完了すると、ステップS51に戻る。
なお、カメラC_1〜C_4の重み付け量は変数Nの更新態様を調整するためのパラメータである。変数Nは、重み付け量がより大きいカメラの番号に優先的に設定される。たとえば、カメラC_1の重み付け量が最も大きく、カメラC_3の重み付け量が最も小さい場合、変数Nが“1”に更新される周期が最も短くなり、変数Nが“3”に更新される周期が最も長くなる。
ステップS61でYESであれば、自動車100は高速(閾値以上の速度)で前進しているとみなし、ステップS65でカメラC_1およびレーザ照射器L_1の角度を上向きに調整するとともに、ステップS67でカメラC_1の重み付け量を増大させる。ステップS67の処理が完了すると、ステップS51に戻る。
ステップS63でYESであれば、自動車100は高速で後進しているとみなし、ステップS69でカメラC_3およびレーザ照射器L_3の角度を上向きに調整し、ステップS71でカメラC_3の重み付け量を増大させる。ステップS67の処理が完了すると、ステップS51に戻る。
ステップS73でYESであれば、自動車100は高速で右前方に移動しているとみなし、ステップS77でカメラC_1,C_2およびレーザ照射器L_1,L_2の角度を自動車100の右前方に調整するとともに、ステップS79でカメラC_1およびC_2の重み付け量を増大させる。ステップS79の処理が完了すると、ステップS51に戻る。
ステップS75でYESであれば、自動車100は高速で右後方に移動しているとみなし、ステップS81でカメラC_2,C_3およびレーザ照射器L_2,L_3の角度を自動車100の右後方に調整するとともに、ステップS83でカメラC_2およびC_3の重み付け量を増大させる。ステップS83の処理が完了すると、ステップS51に戻る。
ステップS85でYESであれば、自動車100は高速で左前方に移動しているとみなし、ステップS87でカメラC_1,C_4およびレーザ照射器L_1,L_4の角度を自動車100の左前方に調整するとともに、ステップS89でカメラC_1およびC_4の重み付け量を増大させる。ステップS89の処理が完了すると、ステップS51に戻る。
ステップS85でNOであれば、自動車100は高速で左後方に移動しているとみなし、ステップS91でカメラC_3,C_4およびレーザ照射器L_3,L_4の角度を自動車100の左後方に調整するとともに、ステップS93でカメラC_3およびC_4の重み付け量を増大させる。ステップS93の処理が完了すると、ステップS51に戻る。
また、この実施例によれば、移動体として自動車を想定しているが、建機や電車を移動体として想定するようにしてもよい。建機の場合、作業現場の地面が平らでない可能性があるため、図16に示すステップS23で参照される基準REFは、好ましくは地面の平坦度を考慮して調整される。また、電車の場合、レーザ光は駅のホームにいる乗客を検知するために照射される。
さらに、この実施例では、警告を自動車100の運転手に向けて発するようにしているが、外部つまり別の自動車の運転手に向けて警告を発するようにしてもよい。これによって、別の自動車が衝突してくる事態を回避できる可能性が増大する。
さらにまた、この実施例では、レーザ照射器L_2を自動車100の右側のほぼ中央に設置し、カメラC_2を自動車100の右側の幅方向ほぼ中央でかつ高さ方向上側に設置し、レーザ照射器L_4を自動車100の左側のほぼ中央に設置し、カメラC_4を自動車100の左側の幅方向ほぼ中央でかつ高さ方向上側に設置するようにしている。しかし、レーザ照射器L_2およびカメラC_2を右側のドアミラーに上下に設置し、レーザ照射器L_4およびカメラC_4を左側のドアミラーに上下に設置するようにしてもよい。
また、この実施例では、輝線G_Nの変化量であるΔG_Nが基準REFを上回るときにレーザ光の照射方向を上向きに変更するようにしている(図16のステップS23および図17のステップS27参照)。しかし、レーザ光の放射方向を周期的に変化させ、放射方向の変化に伴う輝線G_Nの検知結果を参照することで、障害物の有無や障害物の高さを判断するようにしてもよい。
さらに、この実施例では、警告を発生するために警告ランプを設けるようにしているが、スピーカから警告を発生させたり、表示装置に警告を表示させたりするようにしてもよい。
また、この実施例では、鳥瞰図画像BEV_1〜BEV_4がメモリ12mのワークエリアW1上で作成され(図15のステップS5参照)、全周鳥瞰図画像がメモリ12mのワークエリアW2上で作成され(図15のステップS7参照)、そしてワークエリアW1上の鳥瞰図画像BEV_1〜BEV_4がワークエリアW3に複製される(図16のステップS17参照)。しかし、図16に示すステップS19や図17に示すステップS33の処理をワークエリアW1上で実行するようにすれば、鳥瞰図画像BEV_1〜BEV_4を複製する処理は不要となる。
さらに、この実施例では、図16〜図17に示す単一の障害物検知タスクを準備し、図16のステップS25で変数Nを“1”〜“4”の間で更新するようにしている。しかし、カメラC_1〜C_4にそれぞれ対応する4つの障害物検知タスクを準備し、これらのタスクを並列的に実行するようにしてもよい。この場合、変数Nを更新する処理は不要となる。
また、図11(A)または図14(A)によれば、レーザ光の放射方向を変更するために、レーザ照射器の姿勢が変更される。しかし、実際には、光学系を調整することでレーザ光の照射方向が変更される。
上述の実施例に関する注釈事項を以下に示す。この注釈事項は、矛盾がない限り、上述の実施例に任意に組み合わせることが可能である。
実施例で述べたような撮影画像から鳥瞰図画像を生成する座標変換は、一般に透視投影変換と呼ばれる。この透視投影変換を用いるのではなく、公知の平面射影変換によって撮影画像から鳥瞰図画像を生成するようにしてもよい。平面射影変換を用いる場合、撮影画像上の各画素の座標値を鳥瞰図画像上の各画素の座標値に変換するためのホモグラフィ行列(座標変換行列)をカメラ校正処理の段階で予め求めておく。ホモグラフィ行列の求め方は公知である。そして、画像変換を行う際に、ホモグラフィ行列に基づいて撮影画像を鳥瞰図画像に変換すればよい。いずれにせよ、撮影画像を鳥瞰図画像上に投影することによって撮影画像が鳥瞰図画像に変換される。
この発明の一実施例の構成を示すブロック図である。 (A)は自動車の正面を眺めた状態を示す図解図であり、(B)は自動車の右側面を眺めた状態を示す図解図であり、(C)は自動車の背面を眺めた状態を示す図解図であり、(D)は自動車の左側面を眺めた状態を示す図解図である。 自動車に取り付けられた複数のレーザ照射器によって照射されたレーザ光の輝線ならびに自動車に取り付けられた複数のカメラによって捉えられる視野の一例を示す図解図である。 (A)は前カメラの出力に基づく鳥瞰図画像の一例を示す図解図であり、(B)は右カメラの出力に基づく鳥瞰図画像の一例を示す図解図であり、(C)は左カメラの出力に基づく鳥瞰図画像の一例を示す図解図であり、(D)は後カメラの出力に基づく鳥瞰図画像の一例を示す図解図である。 図4(A)〜図4(D)に示す鳥瞰図画像に基づく全周鳥瞰図画像の一例を示す図解図である。 表示装置によって表示される操縦支援画像の一例を示す図解図である。 車両に取り付けられたカメラの角度を示す図解図である。 カメラ座標系と撮像面の座標系と世界座標系との関係を示す図解図である。 (A)は障害物に向かって後進する自動車を側面から眺めた状態の一例を示す図解図であり、(B)は障害物に向かって後進する自動車を上面から眺めた状態の一例を示す図解図である。 (A)は障害物に向かって後進する自動車を側面から眺めた状態の他の一例を示す図解図であり、(B)は障害物に向かって後進する自動車を上面から眺めた状態の他の一例を示す図解図である。 (A)は障害物に向かって後進する自動車を側面から眺めた状態のその他の一例を示す図解図であり、(B)は障害物に向かって後進する自動車を上面から眺めた状態のその他の一例を示す図解図である。 (A)は他の障害物に向かって後進する自動車を側面から眺めた状態の一例を示す図解図であり、(B)は他の障害物に向かって後進する自動車を上面から眺めた状態の一例を示す図解図である。 (A)は他の障害物に向かって後進する自動車を側面から眺めた状態の他の一例を示す図解図であり、(B)は他の障害物に向かって後進する自動車を上面から眺めた状態の他の一例を示す図解図である。 (A)は他の障害物に向かって後進する自動車を側面から眺めた状態のその他の一例を示す図解図であり、(B)は他の障害物に向かって後進する自動車を上面から眺めた状態のその他の一例を示す図解図である。 図1実施例に適用されるCPUの動作の一部を示すフロー図である。 図1実施例に適用されるCPUの動作の他の一部を示すフロー図である。 図1実施例に適用されるCPUの動作のその他の一部を示すフロー図である。 他の実施例の構成を示すブロック図である。 図18実施例に適用されるCPUの動作の一部を示すフロー図である。 図18実施例に適用されるCPUの動作の他の一部を示すフロー図である。 図18実施例に適用されるCPUの動作のその他の一部を示すフロー図である。 図18実施例に適用されるCPUの動作のさらにその他の一部を示すフロー図である。
符号の説明
10 …操縦支援装置
C_1〜C_4 …カメラ
L_1〜L_4 …レーザ照射器
12 …画像処理回路
12p …CPU
12m …メモリ
14 …フラシュメモリ
16 …表示装置
18 …警告ランプ
22 …速度センサ
24 …方向センサ
100 …自動車

Claims (6)

  1. 移動体に設けられて光線を斜め下方向に放射する放射手段、
    前記移動体に設けられて前記放射手段の放射方向に対応する視野を有する撮像手段、
    前記放射手段によって放射された光線の反射位置の変化量が基準を上回るか否かを前記撮像手段の出力に基づいて判別する判別手段、
    前記判別手段の判別結果が否定的な結果から肯定的な結果に更新されたとき前記放射手段の放射方向を変更する変更手段、
    前記放射手段によって放射された光線の反射位置の変化の態様を前記変更手段の変更処理と並列する前記撮像手段の出力に基づいて検出する検出手段、および
    前記検出手段の検出結果に応じて異なる報知を前記移動体の操縦者に向けて出力する報知手段を備える、操縦支援装置。
  2. 前記放射手段は前記撮像手段の視野の左右方向に延びる線状の光線を放射し、
    前記変更手段は前記放射方向を上方向に変更する、請求項1記載の操縦支援装置。
  3. 前記検出手段は、前記検出手段の検出結果が反射する光線の消失を示すとき前記報知を第1態様で出力する第1報知手段、および前記検出手段の検出結果が反射する光線の少なくとも一部の検出を示すとき前記報知を第2態様で出力する第2報知手段を含む、請求項1または2記載の操縦支援装置。
  4. 前記撮像手段の出力に基づいて鳥瞰図画像を作成する作成手段をさらに備え、
    前記判別手段および前記検出手段はそれぞれ前記作成手段によって作成された鳥瞰図画像を参照して判別処理および検出処理を実行する、請求項1ないし3のいずれかに記載の操縦支援装置。
  5. 前記撮像手段は前記移動体の周辺に設けられる複数のカメラを含み、
    前記放射手段は前記複数のカメラにそれぞれ割り当てられる複数のレーザ照射器を含み、
    前記判別手段の判別処理のために注目されるカメラおよびレーザ照射器を繰り返し更新する更新手段をさらに備える、請求項1ないし4のいずれかに記載の操縦支援装置。
  6. 前記更新手段の更新態様を前記移動体の移動速度および前記移動体の移動方向の少なくとも一方に応じて異なる態様に設定する設定手段をさらに備える、請求項1ないし5のいずれかに記載の操縦支援装置。
JP2008245213A 2008-09-25 2008-09-25 操縦支援装置 Withdrawn JP2010076527A (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2008245213A JP2010076527A (ja) 2008-09-25 2008-09-25 操縦支援装置
US13/063,905 US20110169954A1 (en) 2008-09-25 2009-09-07 Maneuvering assisting apparatus
CN2009801379440A CN102165503A (zh) 2008-09-25 2009-09-07 操纵支援装置
EP09816045A EP2330581A1 (en) 2008-09-25 2009-09-07 Steering assistance device
PCT/JP2009/065575 WO2010035628A1 (ja) 2008-09-25 2009-09-07 操縦支援装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008245213A JP2010076527A (ja) 2008-09-25 2008-09-25 操縦支援装置

Publications (1)

Publication Number Publication Date
JP2010076527A true JP2010076527A (ja) 2010-04-08

Family

ID=42059631

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008245213A Withdrawn JP2010076527A (ja) 2008-09-25 2008-09-25 操縦支援装置

Country Status (5)

Country Link
US (1) US20110169954A1 (ja)
EP (1) EP2330581A1 (ja)
JP (1) JP2010076527A (ja)
CN (1) CN102165503A (ja)
WO (1) WO2010035628A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104354644A (zh) * 2014-08-26 2015-02-18 孟世民 倒车监测装置及具有其的车辆
JP2017518579A (ja) * 2014-06-05 2017-07-06 ソフトバンク・ロボティクス・ヨーロッパSoftbank Robotics Europe 水平面による障害物検出装置およびこのような装置を実装する検出方法
JPWO2021010355A1 (ja) * 2019-07-16 2021-01-21

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5068779B2 (ja) * 2009-02-27 2012-11-07 現代自動車株式会社 車両周囲俯瞰画像表示装置及び方法
DE102012210798A1 (de) 2012-06-26 2014-01-02 Robert Bosch Gmbh Kommunikationsvorrichtung und Kommunikationsverfahren für ein Fahrzeug
JP6009894B2 (ja) * 2012-10-02 2016-10-19 株式会社デンソー キャリブレーション方法、及びキャリブレーション装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU705003B2 (en) * 1995-06-12 1999-05-13 Toyoda Gosei Co. Ltd. Information indicator for vehicle
JP2000062525A (ja) * 1998-08-24 2000-02-29 Koito Mfg Co Ltd 車輌用灯具の照射方向制御装置
JP2002036987A (ja) 2000-07-27 2002-02-06 Nissan Motor Co Ltd 車両周囲監視装置
US20020117340A1 (en) * 2001-01-31 2002-08-29 Roger Stettner Laser radar based collision avoidance system for stationary or moving vehicles, automobiles, boats and aircraft
JP4123787B2 (ja) * 2002-02-07 2008-07-23 トヨタ自動車株式会社 車両運転支援装置および車両運転支援システム
US7287884B2 (en) * 2002-02-07 2007-10-30 Toyota Jidosha Kabushiki Kaisha Vehicle operation supporting device and vehicle operation supporting system
JP4161584B2 (ja) * 2002-02-07 2008-10-08 トヨタ自動車株式会社 移動体用安全装置
JP5082923B2 (ja) * 2008-02-27 2012-11-28 日産自動車株式会社 車両障害物検出装置

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017518579A (ja) * 2014-06-05 2017-07-06 ソフトバンク・ロボティクス・ヨーロッパSoftbank Robotics Europe 水平面による障害物検出装置およびこのような装置を実装する検出方法
CN104354644A (zh) * 2014-08-26 2015-02-18 孟世民 倒车监测装置及具有其的车辆
JPWO2021010355A1 (ja) * 2019-07-16 2021-01-21
WO2021010355A1 (ja) * 2019-07-16 2021-01-21 株式会社ニコン 撮像装置及び撮像方法
JP7384204B2 (ja) 2019-07-16 2023-11-21 株式会社ニコン 撮像装置及び撮像方法

Also Published As

Publication number Publication date
WO2010035628A1 (ja) 2010-04-01
US20110169954A1 (en) 2011-07-14
CN102165503A (zh) 2011-08-24
EP2330581A1 (en) 2011-06-08

Similar Documents

Publication Publication Date Title
KR101911610B1 (ko) 어떤 차량의 차량 주변을 왜곡 없이 표시하기 위한 방법 및 장치
JP5083841B2 (ja) 車両周辺監視装置、車両周辺監視用プログラム、車両周辺監視方法
WO2010035628A1 (ja) 操縦支援装置
US9064293B2 (en) Vehicle surroundings monitoring device
JP2010141836A (ja) 障害物検知装置
JP2010093605A (ja) 操縦支援装置
JP6187671B2 (ja) 自己位置算出装置及び自己位置算出方法
WO2010119734A1 (ja) 画像処理装置
JP2014531078A (ja) 車両周辺の表示方法
JP7283059B2 (ja) 周辺監視装置
JP2010136289A (ja) 運転支援装置及び運転支援方法
WO2010070920A1 (ja) 車両周囲画像生成装置
JP2007304033A (ja) 車両の周辺監視装置、車両、車両の周辺監視方法、および車両の周辺監視用プログラム
KR20170118077A (ko) 차량 주변을 왜곡 없이 보여주는 방법 및 장치
JP2010258691A (ja) 操縦支援装置
US10475154B2 (en) Machine surround view system and method for generating 3-dimensional composite surround view using same
JP2002036987A (ja) 車両周囲監視装置
JP2009184450A (ja) 光照射装置
WO2018180596A1 (ja) 車両用表示装置
JP2010073032A (ja) 画像照射システムおよび画像照射方法
JP2010070117A (ja) 画像照射システムおよび画像照射方法
WO2010116801A1 (ja) 画像処理装置
JP4972036B2 (ja) 画像処理装置
JP2013009267A (ja) 周囲監視装置
JP6855254B2 (ja) 画像処理装置、画像処理システム、及び、画像処理方法

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20111206