JP6095684B2 - 3d車両周辺映像生成方法および装置 - Google Patents

3d車両周辺映像生成方法および装置 Download PDF

Info

Publication number
JP6095684B2
JP6095684B2 JP2014544648A JP2014544648A JP6095684B2 JP 6095684 B2 JP6095684 B2 JP 6095684B2 JP 2014544648 A JP2014544648 A JP 2014544648A JP 2014544648 A JP2014544648 A JP 2014544648A JP 6095684 B2 JP6095684 B2 JP 6095684B2
Authority
JP
Japan
Prior art keywords
vehicle
camera
image
viewpoint
virtual camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014544648A
Other languages
English (en)
Other versions
JP2015507386A (ja
Inventor
ユン イン ハン
ユン イン ハン
ソン ジェ チョン
ソン ジェ チョン
ジョン ウン パク
ジョン ウン パク
ウォン イン バク
ウォン イン バク
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kss Imagenext Co ltd
Kss Kss Imagenext Co ltd
Original Assignee
Kss Imagenext Co ltd
Kss Kss Imagenext Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kss Imagenext Co ltd, Kss Kss Imagenext Co ltd filed Critical Kss Imagenext Co ltd
Publication of JP2015507386A publication Critical patent/JP2015507386A/ja
Application granted granted Critical
Publication of JP6095684B2 publication Critical patent/JP6095684B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/27Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/02Rear-view mirror arrangements
    • B60R1/08Rear-view mirror arrangements involving special optical features, e.g. avoiding blind spots, e.g. convex mirrors; Side-by-side associations of rear-view and other mirrors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/28Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with an adjustable field of view
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • G06T3/06
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4038Scaling the whole image or part thereof for image mosaicing, i.e. plane images composed of plane sub-images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/282Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/602Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective with an adjustable viewpoint
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/602Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective with an adjustable viewpoint
    • B60R2300/605Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective with an adjustable viewpoint the adjustment being automatic
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/607Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective from a bird's eye viewpoint
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2215/00Indexing scheme for image rendering
    • G06T2215/16Using real world measurements to influence rendering
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Computing Systems (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

本発明は、車両周辺映像生成方法および装置に関し、より詳しくは、車両周辺映像を3Dで立体感あるように提供することができる車両周辺映像生成方法および装置に関する。
最近、自動車産業の発達に伴って1世帯に1台保有の時代という程度に自動車の普及は商用化されており、車両の安全度の向上と運転者の便宜を図るために多様な先端電子技術が自動車に適用されている。
このような先端電子技術のうち、自動車の周辺環境を撮影して表示することによって運転者が自動車の周辺環境を肉眼で便利に確認することができる車両周辺映像表示システム(Around View Monitoring、AVM)がある。車両周辺映像表示システムは、自動車の前方、後方、左側および右側にそれぞれ設置されたカメラを通じて周辺環境を撮影し、撮影された映像に基づいて重複領域を自然に示されるように補正処理して自動車の周辺環境を画面に表示する。これによって、運転者は表示された周辺環境を通じて自動車の周辺状況を正確に認識することができ、サイドミラーやバックミラーを見ることもなく便利に駐車することができる。
特に、最近は車両周辺映像を多様な視点で眺めたビュー映像で提供する3D車両周辺映像提供システムに対する関心が増大している。より詳しくは、車両走行状態により合成画像の仮想視点の位置、視線の方向および焦点距離の少なくとも一つを変更することによって運転者がより便利に車両周辺状況を認識することができるようにする技術に対する研究開発が多様に行われている。
このように3D車両周辺映像を提供するためには、基本的にカメラにより撮影された映像を3D空間モデルを用いて3次元空間の仮想面にマッピングする。そして、車両の走行状態または使用者の選択により決定されたカメラ仮想視点の位置、視線の方向および焦点距離により予め定められた対応関係により3次元空間の仮想面にマッピングされた入力映像から合成画像を生成することができる。しかし、3D空間モデルにより合成画像が自然に示されないという問題点があった。例えば3D空間モデルで半球形態のモデルを用いる場合、車両から遠距離に位置した物体は比較的に自然に表現されるが、車両近傍の地面は不自然に表現される傾向にあり、既存の2D車両周辺映像システムで用いる地面をマッピング面として用いる方式では、地面でない部分、例えば車両周辺に立っている人間または障害物などの場合は、像が長く伸びて正確な映像を得ることができないと共に、整合過程で各ビューの実際のカメラ映像が良好にマッチングされないため、整合が難しいという問題点があった。
したがって、本発明が解決しようとする課題は、周辺障害物を含む車両周辺映像をより自然に且つ立体感あるように表現することができる3D車両周辺映像生成方法および装置を提供することにある。
上記のような技術的課題を解決するための本発明の実施形態に係る3D車両周辺映像生成方法は、車両に設置された複数のカメラから撮影された映像を底面が平らで上部に行くほど半径が広くなる容器形態の3次元空間モデルにより定義される仮想面にマッピングする段階と、前記仮想面にマッピングされた映像を用いて仮想カメラの視点のビュー映像を生成する段階と、を含む。
前記仮想カメラの視点は、前記車両の走行状態および使用者の選択のうちの少なくとも一つにより決定され得る。
前記3次元空間モデルの底面の大きさは、前記車両の走行速度に反比例することができる。
合成映像生成は、前記仮想面にマッピングされた映像と前記仮想カメラの視点のビュー映像との間の対応関係が予め定義されたルックアップテーブルを参照して形成され得る。
前記ビュー映像を生成するために前記複数のカメラにより撮影された映像が重なる領域の中心が前記仮想カメラのチルト角度により変更され得る。
前記複数のカメラは、前記車両の前方、右側、後方、左側にそれぞれ設置される前方カメラ、右側カメラ、後方カメラおよび左側カメラを含み、前記仮想カメラの位置が前記車両の中心を基準に左側または右側に位置した程度に応じて前記仮想カメラが位置した側に設置されたカメラにより撮影された映像をさらに含むように重畳領域の中心が変更され得る。
前記仮想カメラの視点は、前記車両の操向角方向またはギヤ位置に連動することができる。
前記方法は、前記仮想カメラの視点に対する使用者の選択を入力されるためのユーザーインターフェース(UI)を表示する段階と、前記ユーザーインターフェースを通じて入力された使用者の選択により前記仮想カメラの視点の変化を表示する段階と、をさらに含むことができる。
前記方法は、前記車両の走行位置周辺の建物情報および道路情報を前記仮想カメラの視点により前記ビュー映像に合成する段階をさらに含むことができる。
本発明の他の実施形態に係るコンピュータで読み取り可能な媒体は、前記方法のうちのいずれか一つをコンピュータに実行させるためのプログラムを記録する。
本発明の他の実施形態に係る車両周辺映像表示システムは、車両に設置された複数のカメラから撮影された映像を入力される映像入力部と、前記映像入力部に入力された映像を底面が平らで上部に行くほど半径が広くなる容器形態の3次元空間モデルにより定義される仮想面にマッピングし、前記仮想面にマッピングされた映像を用いて仮想カメラの視点で眺めたビュー映像を生成する周辺映像生成装置とを含む。
前記周辺映像生成装置は、前記車両の走行位置周辺の建物情報および道路情報を前記仮想カメラの視点により前記ビュー映像に合成することができる。
前記複数のカメラは、前記撮影された映像を前記周辺映像生成装置に近距離無線通信を通じて伝達することができる。
本発明によれば、周辺障害物を含む車両周辺映像をより自然に且つ立体感あるように表現することができるという長所がある。また、車両の走行状態により仮想視点を変更して最適の車両周辺映像を提供することができるという長所がある。また、使用者が便利に仮想カメラの視点を調整することができるという長所がある。
本発明の実施形態に係る外部パラメータ推定装置を含む車両周辺映像表示システムを説明するためのブロック図である。 本発明の実施形態に係るカメラの設置位置および三角形パターンが表示された校正板の配置を説明するための概略図である。 本発明の実施形態に係る車両設置カメラの外部パラメータを説明するための概略図である。 本発明の実施形態に係る三角形パターンが表示された補正板を含む前方カメラ入力映像の一例を示した図面である。 本発明の実施形態に係るカメラの外部パラメータを推定する方法を説明するためのフローチャートである。 本発明の実施形態に係る前方、後方、左側、右側カメラで撮影された映像からそれぞれ抽出された頂点を共に示した図面である。 本発明の実施形態に係るカメラの外部パラメータのうち、パン角度、X座標およびY座標を推定する方法を説明するためのフローチャートである。 本発明の一実施形態に係る3D車両周辺映像生成方法を説明するためのフローチャートである。 本発明の一実施形態に係る3次元空間モデルを説明するための図面である。 本発明の一実施形態に係る3次元空間モデルの仮想面に実際のカメラにより撮影された映像をマッピングする例を説明するための図面である。 本発明の一実施形態に係る仮想カメラ視点が使用者の選択により決定される方法について説明するための図面である。 複数のカメラにより撮影された映像が仮想カメラ視点のビュー映像の生成時に重なる領域を説明するための図面である。 本発明の一実施形態に係る車両周辺建物および道路情報を仮想カメラ視点のビュー映像に表示した例である。
以下、添付図面を参照して本発明の実施形態について本発明が属する技術分野における通常の知識を有する者が容易に実施することができるように詳しく説明する。
図1は、本発明の実施形態に係る外部パラメータ推定装置を含む車両周辺映像表示システムを説明するためのブロック図である。
図1を参照すれば、車両周辺映像表示システムは、4台のカメラ210、220、230、240と、周辺映像生成装置300と、表示装置400とを含み、外部パラメータ推定装置100をさらに含むことができる。もちろん、周辺映像生成装置300と外部パラメータ推定装置100を一体の形態で実現することができる。
車両周辺映像表示システムは、車両に設置された4台のカメラ210、220、230、240を通じて撮影された映像を処理して生成された周辺映像を画面上に表示することによって、車両の周辺状況を運転者が確認することができるようにするシステムである。車両周辺映像表示システムは、車両周辺映像を仮想視点で眺めた3D映像で提供することができる。そのために、車両に設置された4台のカメラ210、220、230、240の姿勢および位置に対する外部パラメータを知らなければならない。
4台のカメラ210、220、230、240は、それぞれ車両の前方、後方、左側および右側に設置され、広角レンズ、魚眼レンズなどのように画角が広いレンズを備えることができる。カメラ210、220、230、240は、レンズを通じて3次元の被写体を2次元の映像で撮影し、撮影された映像を外部パラメータ推定装置100、周辺映像生成装置300等に提供することができる。実施形態によりカメラ210、220、230、240は、ワイファイ(Wi−Fi)、ブルートゥース、ジグビー、UWBなど近距離無線通信モジュールを搭載し、周辺映像生成装置300、外部パラメータ推定装置100に映像を無線で伝送するように具現されることもできる。
外部パラメータ推定装置100は、4台のカメラ210、220、230、240で提供された映像から三角形パターンをなす頂点を抽出し、抽出された頂点を用いてカメラ210、220、230、240の外部パラメータを推定することができる。次に、外部パラメータ推定方法について詳しく説明する。
周辺映像生成装置300は、4台のカメラ210、220、230、240から提供された映像を用いて、車両走行状況または使用者の選択により決定される所定の仮想視点を有する仮想カメラに対する仮想視点映像を生成して表示装置400に出力することができる。そのために、周辺映像生成装置300は、カメラ210、220、230、240から提供された入力映像を3Dモデル面にマッピングさせてテキスチャーマップ(texture map)を求めることができるが、これは外部パラメータ推定装置100で求められたカメラの外部パラメータに基づいて求められるカメラ別プロジェクションモデルが用いられ得る。そして、入力映像を3Dモデル仮想面にマッピングする過程で互いに異なるカメラで撮影された入力映像が自然に示されるようにするため、加重ブレンディング(weighted blending)技法などが用いられ得る。そして、周辺映像生成装置300は、所定の仮想視点が決められると該当仮想視点を有する仮想カメラのプロジェクションモデルを用いてテキスチャーマップから仮想視点映像を生成して出力することができる。
表示装置400は、生成された周辺映像を液晶表示装置(Liquid Crystal Display、LCD)、有機発光ダイオード(Organic‐Light Emitting Diode、OLED)等の表示モジュールに表示する。もちろん、車両内に設置された自動航法装置(図示せず)等が周辺映像を提供して画面に表示することもできる。
一方、実施形態により周辺映像生成装置300、外部パラメータ推定装置100、表示装置400は、スマートフォン、タブレットPCなどのような携帯通信端末として具現され得る。
また、4台のカメラ210、220、230、240のレンズ歪曲などを補正する作業および各カメラ別プロジェクションモデルを求める作業などが必要になり得るが、これは一般に知られた公知の技術を用いることができるため、詳しい説明は省略する。
以下、本発明の一実施形態に係る三角形パターンを用いて車両に設置されたカメラの外部パラメータを推定する方法について詳しく説明する。
図2は、本発明の実施形態に係るカメラの設置位置および三角形パターンが表示された校正板の配置を説明するための概略図である。
図1および図2を参照すれば、車両(V)の前方、後方、左側および右側にそれぞれカメラ210、220、230、240が設置される。カメラ210、220、230、240が設置される位置をより詳細に説明すれば、前方に設置されたカメラ210は、車両(V)のボンネット中心に設置され、左側および右側に設置されたカメラ230、240は、それぞれ車両(V)の両サイドミラーの縁または下側に位置するように設置され得る。また、後方に設置されたカメラ220は、後方バンパーの上側中央に設置され得る。カメラの高さと角度により撮影される映像のスケール、画質などが相異するため、前方および後方に設置されたカメラ210、220の高さは、互いに同一にすることが好ましく、同様に左側および右側に設置されたカメラ230、240の高さも互いに同一にすることが好ましい。このようにカメラ210、220、230、240の設置高さを同一にすることによって、周辺映像の生成時に重複領域で車線幅の広さが同一に表現されず、周辺事物の大きさが異質的に示される現象を最小化させることができる。また、左側および右側に設置されたカメラ230、240は、地面方向の垂直線を基準に170°以上が撮影され得るように設置される。ここで、各カメラ210、220、230、240の設置位置は、車両の種類によって異なってもよく、車両のデザインによって設置上の制約が発生することもある。
一般に広角カメラは、レンズ周辺部の光量が不足して画質の低下が発生し、レンズの中心部よりも周辺部に歪曲が多く発生し得る。また、カメラを通じて撮影された映像を視点変換する時、周辺部の映像は画質が激しく低下する。したがって、カメラレンズの中心部領域に形成された映像を使用するために、前方および後方に設置されたカメラ210、220は光軸が地平線と平行するように、左側および右側に設置されたカメラ230、240は光軸が地面と垂直になるように設置され得る。また、車両(V)の前後方および左右側面から約1.5m離れた範囲まで撮影されるようにカメラ210、220、230、240の設置高さを決定し、この時、カメラ210、220、230、240は地面に対する垂直軸から約30°乃至60°程度まで撮影されるように設置され得る。前述したカメラの設置位置は、好適な実施形態について説明したものであり、本発明に係るカメラの外部パラメータ推定装置100は、必ずしもカメラ210、220、230、240が該当位置に正確に設置されなければならないのではない。
一方、三角形パターンが表示された校正板(PL1、PL2、PL3、PL4)は、カメラ210、220、230、240で撮影された各映像に二つの校正板が含まれるように車両(V)の各角部から一定の距離を置いて設置され得る。つまり、前方に設置されたカメラ210で撮影された映像には校正板(PL1、PL2)が含まれ、後方に設置されたカメラ220で撮影された映像には校正板(PL3、PL4)が含まれ、左側に設置されたカメラ230で撮影された映像には校正板(PL1、PL4)が含まれ、右側に設置されたカメラ240で撮影された映像には校正板(PL2、PL3)が含まれるように車両(V)の各角部から一定の距離を置いて校正板(PL1、PL2、PL3、PL4)が設置され得る。校正板(PL1、PL2、PL3、PL4)は、大略的に車両(V)の前方左側、前方右側、後方右側および後方左側にそれぞれ設置されればよく、必ずしも正確な予め定められた位置に設置されなければならないのではない。ただし、校正板(PL1、PL2、PL3、PL4)は、車両(V)が位置した地面に平行に配置されなければならない。
そして、校正板(PL1、PL2、PL3、PL4)は、図2に例示したように、一定の厚さを有する正三角形パターンが表示され得るが、縁内部の三角形の大きさが外部三角形の大きさの0.4〜0.8になるように具現することができる。これは周辺の類似する三角パターンから校正板(PL1、PL2、PL3、PL4)に表示された三角形パターンを自動的に正確に抽出するためのものであり、必ずしもこれに限定されるのではない。基本的に校正板(PL1、PL2、PL3、PL4)は、正三角形の頂点に該当する頂点を抽出することができる形態であれば多様に具現され得る。
図3は、本発明の実施形態に係る車両設置カメラの外部パラメータを説明するための概略図である。
図3を参照すれば、車両(V)に設置されたカメラ210、220、230、240の外部パラメータは、3次元空間座標(x、y、z)と、カメラ210、220、230、240のパン、チルト、ロール角度(θ、ψ、Φ)とを含むことができる。
3次元空間座標(x、y、z)のうち、座標(z)は車両(V)が位置した地面(G)からの高さに対応し、図3(a)に例示したように前方カメラ210、左側カメラ230、右側カメラ240の高さは、それぞれz、z、zになり得る。そして、座標(x)と座標(y)は、車両(V)が位置した地面(G)に平行な仮想平面上での位置に対応し、図3(b)に例示したように車両(V)の中心部(O)を座標基準にすることができる。
一方、パン角度(θ)は、カメラ210、220、230、240のヘッド方向が車両(V)の進行方向となす角度と定義され、図3(b)に例示したようにカメラ210、220、230、240のパン角度は、それぞれθ、θ、θ、θの値を有することができる。
チルト角度(ψ)は、地面(G)となす角度と定義され、図3(a)に例示したように前方カメラ210、後方カメラ220のチルト角度は、それぞれψ、ψの値を有することができる。
ロール角度(Φ)は、カメラヘッド方向軸を基準にしたカメラ210、220、230、240の回転角度と定義され、図3(a)に例示したように左側カメラ230のロール角度はΦの値を有することができる。
図4は、本発明の実施形態に係る三角形パターンが表示された補正板を含む前方カメラ入力映像の一例を示した図面であり、図5は、本発明の実施形態に係るカメラの外部パラメータを推定する方法を説明するためのフローチャートである。
図4を参照すれば、前方カメラ210により撮影されて入力された映像は、2つの三角形パターンが表示された校正板(PL1、PL2)が含まれ得る。校正板(PL1、PL2)に表示された三角形パターンが実際は辺の長さがAである正三角形であるとしても、前方カメラ210のレンズ歪曲、チルト角度(ψ)、ロール角度(Φ)および高さ(z)により入力映像において三角形パターンの辺の長さ(a、a、a、a、a、a)は互いに異なるようになる。
ところで、前方カメラ210による入力映像においてレンズ歪曲を予め知られた方法で補正し、車両(V)の上方で地面(G)を見下ろす方向(トップビュー)の仮想視点を有する仮想カメラの映像に変換すれば三角形パターン(PL1、PL2)の辺の長さ(a、a、a、a、a、a)は互いに同一になる。
これを参考にして前方カメラ210で入力される映像に対して次のような作業を行えば前方カメラ210のチルト角度(ψ)、ロール角度(Φ)および高さ(z)を推定することができる。
図5は、本発明の実施形態に係るカメラの外部パラメータのうち、チルト角度、ロール角度および高さを推定する方法を説明するためのフローチャートである。
図5を参照すれば、まず、外部パラメータ推定装置100は、前方カメラ210による入力映像に対してレンズ歪曲を補正する(S510)。以降、前方カメラにより撮影された映像に含まれている前方左側校正板(PL1)および前方右側校正板(PL2)に表示された三角形パターンでそれぞれ3つずつ総6つの頂点(P1、P2、P3、P4、P5、P6)を抽出する(S520)。
次に、外部パラメータ推定装置100は、前方カメラ210のチルト角度(ψ)、ロール角度(Φ)および高さ(z)を変化させながら抽出された6つの頂点(P1、P2、P3、P4、P5、P6)の座標を世界座標に変換する(S530)。ここで世界座標とは、任意の基準点または車両(V)の中心が位置した地面(G)上の点(O)を座標基準点とすることができる。
外部パラメータ推定装置100は、段階S530で求められた6つの頂点(P1、P2、P3、P4、P5、P6)の世界座標を用いて前方左側校正板(PL1)および前方右側校正板(PL2)に表示された三角形パターンの辺の長さ(a、a、a、a、a、a)を求める(S540)。
最後に、三角形パターンの実際の辺の長さ(A)と段階S540で求められた三角形パターンの辺の長さ(a、a、a、a、a、a)との差の大きさを最小化するチルト角度(ψ)、ロール角度(Φ)および高さ(z)を前方カメラ210のチルト角度(ψ)、ロール角度(Φ)および高さ(z)と推定することができる(S550)。段階S550で次の数式1により求められる値、f(ψ、Φ、z)を最小化するチルト角度(ψ)、ロール角度(Φ)および高さ(z)を求めればよい。
Figure 0006095684
前述した方法と同様に残りの後方カメラ220、右側カメラ230および左側カメラ240のチルト角度(ψ)、ロール角度(Φ)および高さ(z)を推定することができる。
次に、カメラ210、220、230、240の位置座標(x、y)およびパン角度(θ)を推定する方法について説明する。
図6は、本発明の実施形態に係る前方、後方、左側、右側カメラで撮影された映像からそれぞれ抽出された頂点を共に示した図面である。
図6を参照すれば、頂点(P1、P2、P3)は前方左側校正板(PL1)に対して前方カメラ210で撮影された映像から抽出された3つの頂点であり、頂点(P4、P5、P6)、は、前方右側校正板(PL2)に対して前方カメラ210で撮影された映像から抽出された3つの頂点である。そして、頂点(P4、P5、P6)は前方右側校正板(PL2)に対して右側カメラ230で撮影された映像から抽出された3つの頂点であり、頂点(P7、P8、P9)は後方右側校正板(PL3)に対して右側カメラ230で撮影された映像から抽出された3つの頂点である。そして、頂点(P7、P8B、P9)は後方右側校正板(PL3)に対して後方カメラ220で撮影された映像から抽出された3つの頂点であり、頂点(P10、P11、P12)は後方左側校正板(PL4)に対して後方カメラ220で撮影された映像から抽出された3つの頂点である。最後に、頂点(P10、P11、P12)は後方左側校正板(PL4)に対して左側カメラ230で撮影された映像から抽出された3つの頂点であり、頂点(P1、P2、P3)は前方左側校正板(PL1)に対して左側カメラ240で撮影された映像から抽出された3つの頂点である。
図7は、本発明の実施形態に係るカメラの外部パラメータのうち、パン角度、X座標およびY座標を推定する方法を説明するためのフローチャートである。
図7を参照すれば、まず、各カメラ210、220、230、240で撮影された映像でレンズ歪曲の補正後に抽出された頂点に対して世界座標を求めることができる(S710)。段階S710でカメラ210、220、230、240のチルト角度(ψ)、ロール角度(Φ)および高さ(z)は、前述した方法により推定された値を用い、位置座標(x、y)およびパン角度(θ)は、予め定められた初期値と設定する。例えば、前方カメラ210のパン角度(θ)は0°に設定し、左側カメラ240は90°、後方カメラ220は180°、右側カメラ230は270°に設定することができ、位置座標(x、y)は、車両中心(O)を座標基準点にしてカメラ210、220、230、240が正確に設置された場合を考慮した値を初期値と設定することができる。カメラ210、220、230、240が予め定められた基準位置および姿勢に正確に設置された場合、段階S710で求められる頂点(P1、P2、P3)と頂点(P1、P2、P3)の対応点の世界座標は互いに一致して位置誤差がないだろう。しかし、実際にはカメラ装着過程または運行過程などで誤差が発生することがあるので、対応点の間に位置誤差が発生することがある。ここで位置誤差とは、世界座標を基準に対応点の間の距離と定義することができる。
以降、外部パラメータ推定装置100は、カメラ210、220、230、240の位置座標(x、y)およびパン角度(θ)を変化させながら対応点の間に位置誤差を求める(S720)。
最後に、対応点の間の位置誤差を最小化する値でカメラ210、220、230、240の位置座標(x、y)およびパン角度(θ)を推定することができる(S730)。段階S730で次の数式2により求められる値、f(θ、θ、θ、θ、x、x、x、x、y、y、y、y)を最小化させる位置座標(x、y)およびパン角度(θ)を求めればよい。
Figure 0006095684
ここで、Diは互いに異なるカメラで撮影された映像から抽出された頂点のうち、対応点の間の距離を意味する。例えば、D1は頂点(P1)と頂点(P1)との間の距離を意味する。
このような方法で各カメラ210、220、230、240の相対的な外部パラメータを推定することができ、カメラ210、220、230、240の中で一つの絶対的位置および姿勢を知れば残りのカメラの絶対的位置および姿勢を求めることができる。もちろん、カメラ210、220、230、240の中で一つの位置を世界座標の基準点とする場合は、自然に残りのカメラの絶対的位置および姿勢を求めることもできる。一方、上記で説明した方法以外にも多様な方法で車両に装着されたカメラの絶対的位置および姿勢を求めることができるのはもちろんである。
次に、本発明の一実施形態に係る3D車両周辺映像生成方法について説明する。
図8は、本発明の一実施形態に係る3D車両周辺映像生成方法を説明するためのフローチャートである。
図8を参照すれば、まず、周辺映像生成装置300は、カメラ210、220、230、240から撮影された映像を3次元空間モデルにより定義される仮想面にマッピングすることができる(S810)。段階S810で3次元空間モデルは、図9に例示したように底面(A)が平らで上部に行くほど半径が広くなる容器形態の仮想面を有するモデル(M)が用いられ得る。
図9(a)を参照すれば、3次元空間モデル(M)は、底面(A)は長半径(b)と短半径(a)を有し、上部に行くほど半径が広くなりながら高さ(c)で開放された上部面(A’)は長半径(b+b)と短半径(a+a)を有するものと定義され得る。もちろん、場合によって底面と上部面が円形で具現されることもできる。
図9(b)および図9(c)を参照すれば、一方、3次元空間モデル上で点(P)がX軸からそして上部面(A’)とはθの角度をなす場合、次の数式による仮想面上に位置するようになる。
Figure 0006095684
ここでαは、底面の大きさと関連したパラメータであり、αが「0」であれば底面がなく、αが「1」であれば底面が長半径(b)と短半径(a)を有するようになる。α値を調整して底面の大きさを調節することもでき、システム設計者により設定されるか、または後述するように車両走行状態、走行速度などによりその値が変動し得る。
図10は、本発明の一実施形態に係る3次元空間モデルの仮想面に実際のカメラにより撮影された映像をマッピングする例を説明するための図面である。
図10を参照すれば、車両周辺に立っている物体(S)が地面と平らな底面でない3次元曲面区間(C3D)に投影され得る。したがって、2D平面で投影する時は該当物体が長く伸びるようにマッピングされるが、3次元曲面区間に投影されることによって該当物体が長く伸びるように投影されることを防止できる長所がある。
このように底面が平らで上部に行くほど半径が広くなる容器形態の仮想面を有するモデルを3次元空間モデルとして利用すれば次のような長所がある。
まず、平らな底面部分ではパララックス(parallex)による不整合現象が起こらない。車両から一定の周辺領域は地面部分に示されるパターンを示す必要がある。そのために、一定の部分に対して地面と付いている形態を有することが良好な結果を示す。
また、本実施形態での3次元空間モデルの底面部分の大きさは、底面に対応する楕円の長短半径係数だけを調節すればよいため容易である。したがって、関心周辺領域をどの程度に設定するのかによって簡単にマッピング仮想面を調節することができる。例えば、車両が駐車したり徐行したりする場合には、車両周辺底面を確認する必要性が大きくなるので、3次元空間モデルの底面の大きさが大きくなるように調整するのが有利であり、反面、相対的に高速に走行する場合は、車両の遠距離部分を確認する必要性が大きくなるので、3次元空間モデルの底面の大きさが小さくなるように調整するのが有利である。したがって、周辺映像生成装置300は、3次元空間モデルの底面の大きさを車両の走行速度に反比例するように調整することが好ましい。
一方、本発明による3次元空間モデルは、切断面が急に折れる曲線なしにスムースに変化するので、ビュー映像で不自然に折れる部分なしに自然に示される長所がある。そして、最後に入力映像をマッピングすることにおいて、マッピング仮想面上に基準点(fiducial point)の位置を定めることが容易であるという長所もある。ここで基準点(fiducial point)とは、前記数式におけるθとψをどれだけの間隔で基準点(fiducial point)をとるのかにより決めることができる。
再び図8に戻り、段階S810後、周辺映像生成装置300は仮想面にマッピングされた映像を用いて仮想カメラの視点のビュー映像を生成することができる(S820)。段階S820で仮想カメラの視点のビュー映像は、仮想面にマッピングされた映像と仮想カメラ視点のビュー映像との間の対応関係が予め定義されたルックアップテーブルを参照して形成されるか、または両者の対応関係を定義する関数を用いて形成され得る。
一方、仮想カメラの視点は、車両の走行状態または使用者の選択のうちの少なくとも一つにより決定されるように具現され得る。
より詳しくは、車両の走行状態は、車両の速度、操向角方向またはギヤ位置に連動して仮想カメラの視点が決定されるように具現することができる。例えば、車両が一定の速度以上で前方へ走行する場合は、仮想カメラ視点は車両前方の地面と平行するか地面となすチルト角度(ψ)が小さくなるように設定され、反対に一定の速度以下に前方へ走行する場合は、地面となすチルト角度(ψ)が大きくなるように設定され得る。一方、後進ギヤの場合は、仮想カメラ視点が後方に設定され得る。また車両の操向角方向が左側である場合は仮想カメラ視点は車両の前方左側に、操向角方向が右側である場合は車両の前方右側に設定され得る。
次に、仮想カメラ視点が使用者の選択により決定される方法について図11を参照して説明する。
図11を参照すれば、使用者が仮想カメラ視点設定メニューを選択すると、図11(a)に例示したように、車両(V)を上部から見下ろす形態で仮想カメラ(C)が表示されるユーザーインターフェース(User Interface:UI)画面が提供される。そうすると、使用者は画面上で仮想カメラ(C)の前部分を回転させて仮想カメラパン角度(θ)を調整することができ、仮想カメラ(C)をドラッグして所望の位置(X、Y)に移動させることができる。
そして、図11(b)に例示したように、車両(V)を側面から見る形態で仮想カメラ(C)が表示されるユーザーインターフェース画面を提供することもできる。この画面で使用者は仮想カメラ(C)の前部分を回転させてチルト角度(ψ)を調整し、仮想カメラ(C)をドラッグして仮想カメラ(C)の高さ(Z)を調整することができる。
このように使用者により仮想カメラ視点設定が完了すると、図11(c)に例示したように、仮想カメラ視点を立体的に理解できる画面を提供することもできる。
一方、ビュー映像を生成するために複数のカメラ210、220、230、240により撮影された映像が重なる領域を次のように処理することが好ましい。
図12は、複数のカメラにより撮影された映像が仮想カメラ視点のビュー映像の生成時に重なる領域を説明するための図面である。
図12を参照すれば、たとえ仮想カメラ視点が車両上方から地面を垂直に見下ろす方向に設定された場合(仮想カメラのチルト角度が90°である場合)、図12(a)に例示したように前方カメラ210で撮像された映像は、第1、2、3領域にマッピングされ、後方カメラ220で撮像された映像は第7、8、9領域にマッピングされる。また左側カメラ230で撮像された映像は第1、4、7領域にマッピングされ、右側カメラ240で撮像された映像は第3、6、9領域にマッピングされる。ここで、第1、3、7、9領域は、複数のカメラにより重複撮影された重複領域である。つまり、第1領域は前方カメラ210と左側カメラ230により重複して撮影された重複領域であり、第3領域は前方カメラ210と右側カメラ240により重複して撮影された重複領域である。また、第7領域は後方カメラ220と左側カメラ230により重複して撮影された重複領域であり、第9領域は後方カメラ220と右側カメラ240により重複して撮影された重複領域である。そして、第5領域は車両に対応するイメージが表示される領域である。この時、重複領域の中心(LC、LC、LC、LC)は車両の対角方向に位置するようにすることができる。
そして、重畳領域に対する処理は、重畳領域の中心(LC、LC、LC、LC)を基準に分けられた領域、例えば重畳領域3の場合、領域(3−1)は前方カメラ210で撮影された映像を適用し、領域(3−2)は右側カメラ240で撮影された映像を適用するように具現することができる。もちろん、実施形態により重畳領域の中心(LC)を基準に加重値を異なるように適用して、領域(3−1)は前方カメラ210で撮影された映像に加重値をより高く与えて処理し、領域(3−2)は右側カメラ240で撮影された映像に加重値をより高く与えて処理するように具現することもできる。残りの重畳領域に対しても同様な方法により処理することができる。
一方、仮想カメラ視点が車両後方から前方を眺める方向に設定された場合(仮想カメラのチルト角度が90°よりも小さく設定された場合)、重畳領域の中心(LC、LC)を車両の縦軸方向に近くすることができる。一般に仮想カメラ視点が車両後方から前方を眺める方向に設定される場合は車両が走行している時である。この場合、左右側の死角地帯に対して運転者がより自然且つ便利に確認する必要があるが、このためには左右側カメラ230、240により撮影された映像をビュー映像により多く反映されるように図12(b)に例示したように重なる領域の中心を車両の縦方向に近く処理することが好ましい。
一方、仮想カメラ視点の位置を車両の左側または右側に位置した程度に応じて仮想カメラが位置した側に設置されたカメラにより撮影された映像をさらに含むように重畳領域の中心を変更させることが好ましい。例えば、仮想カメラ視点の位置が左側へ移動するほど重畳領域の中心(LC、LC)を車両の縦方向に近く変更させることが好ましく、反対に仮想カメラ視点の位置が右側へ移動するほど重畳領域の中心(LC、LC)を車両の縦方向に近く変更させることが好ましい。
最後に、段階S820で生成された仮想カメラ視点のビュー映像は、表示装置400に出力される(S830)。
そして、車両の走行状態により重畳領域の中心(LC、LC、LC、LC)および3次元空間モデルの底面の大きさなどを変化させながら段階S810乃至段階S830を繰り返すことができる。もちろん、実施形態によっては使用者が設定した仮想カメラ視点のとおりビュー映像を固定して生成し、車両の走行状態などには影響を受けないように具現することもできる。
一方、実施形態により本発明による周辺映像生成装置300は、GPS受信モジュール(図示せず)と連動して現在車両の走行位置情報の提供を受けることができる。そして、周辺映像生成装置300は、現在車両の走行位置周辺の建物および道路情報DBと連動して仮想カメラ視点のビュー映像に周辺建物および道路情報を合成して拡張現実で表示することもできる。図13は、本発明の一実施形態に係る車両周辺建物情報1320および道路情報1310を仮想カメラ視点のビュー映像に表示した例である。
GPS受信モジュールは、周辺映像生成装置300がスマートフォンなどのような無線通信端末内に搭載された場合は、該当無線通信端末内に含まれているGPS受信装置を用いることができ、車両内に別途に設置されたGPS受信モジュールで具現されることもできる。そして、車両の走行位置周辺の建物および道路情報DBは、周辺映像生成装置300の内部メモリに保存されたり、別途のナビゲーション装置(図示せず)と連結して提供されたりすることもでき、周辺映像生成装置300が3G、4Gなどのネットワーク通信モジュールを備えた場合またはスマートフォンに装着された場合には、外部のDBサーバーから伝送されることもできる。
本発明の実施形態は、多様なコンピュータで具現される動作を行うためのプログラム命令を含むコンピュータで読み取り可能な媒体を含む。この媒体は、上記で説明した3D車両周辺映像生成方法を実行させるためのプログラムを記録する。この媒体は、プログラム命令、データファイル、データ構造などを単独または組み合わせて含むことができる。このような媒体の例には、ハードディスク、フロプティカルディスクおよび磁気テープのような磁気媒体、CDおよびDVDのような光記録媒体、フロプティカルディスク(Floptical Disk)のような磁気−光媒体、ROM、RAM、フラッシュメモリなどのようなプログラム命令を保存、遂行するように構成されたハードウェア装置などがある。あるいは、このような媒体は、プログラム命令、データ構造などを指定する信号を伝送する搬送波を含む光または金属線、導波管などの伝送媒体でありうる。プログラム命令の例には、コンパイラーにより作られるような機械語コードだけでなく、インタープリタなどを使用してコンピュータにより実行され得る高級言語コードを含む。
以上で、本発明の好ましい実施形態について詳細に説明したが、本発明の権利範囲はこれに限定されるのではなく、特許請求の範囲で定義している本発明の基本概念を利用した当業者の多様な変形および改良形態も本発明の権利範囲に属する。
本発明は、車両周辺映像を3Dで立体感あるように提供することができる車両周辺映像生成方法および装置に適用することができる。
100…外部パラメータ推定装置
210、220、230、240…カメラ
300…周辺映像生成装置
400…表示装置

Claims (11)

  1. 車両に設置された複数のカメラから撮影された映像を底面が平らで上部に行くほど半径が広くなる容器形態の3次元空間モデルにより定義される仮想面にマッピングする段階と
    前記仮想面にマッピングされた映像を用いて仮想カメラの視点のビュー映像を生成する段階と、を含み、
    前記3次元空間モデルの底面の大きさは、前記車両の走行速度に反比例する、3D車両周辺映像生成方法。
  2. 前記仮想カメラの視点は、前記車両の走行状態および使用者の選択のうちの少なくとも一つにより決定される、請求項1に記載の3D車両周辺映像生成方法。
  3. 合成映像生成は、
    前記仮想面にマッピングされた映像と前記仮想カメラの視点のビュー映像との間の対応関係が予め定義されたルックアップテーブルを参照して行われる、請求項1に記載の3D車両周辺映像生成方法。
  4. 前記ビュー映像を生成するために前記複数のカメラにより撮影された映像が重なる領域の中心が前記仮想カメラのチルト角度により変更される、請求項1に記載の3D車両周辺映像生成方法。
  5. 前記複数のカメラは、前記車両の前方、右側、後方、左側にそれぞれ設置される前方カメラ、右側カメラ、後方カメラおよび左側カメラを含み、
    前記仮想カメラの位置が前記車両の中心を基準に左側または右側に位置した程度に応じて前記仮想カメラが位置した側に設置されたカメラにより撮影された映像をさらに含むように重畳領域の中心が変更される、請求項1に記載の3D車両周辺映像生成方法。
  6. 前記仮想カメラの視点は、前記車両の操向角方向またはギヤ位置に連動する、請求項2に記載の3D車両周辺映像生成方法。
  7. 前記仮想カメラの視点に対する使用者の選択を入力させるためのユーザーインターフェース(UI)を表示する段階と、
    前記ユーザーインターフェースを通じて入力された使用者の選択により前記仮想カメラの視点の変化を表示する段階と、をさらに含む、請求項2に記載の3D車両周辺映像生成方法。
  8. 前記車両の走行位置周辺の建物情報および道路情報を前記仮想カメラの視点により前記ビュー映像に合成する段階をさらに含む、請求項2に記載の3D車両周辺映像生成方法。
  9. 車両に設置された複数のカメラから撮影された映像を入力され、上記入力された映像を底面が平らで上部に行くほど半径が広くなる容器形態の3次元空間モデルにより定義される仮想面にマッピングし、前記仮想面にマッピングされた映像を用いて仮想カメラの視点で眺めたビュー映像を生成する周辺映像生成装置を含み、
    前記3次元空間モデルの底面の大きさは、前記車両の走行速度に反比例する、車両周辺映像表示システム。
  10. 前記周辺映像生成装置は、
    前記車両の走行位置周辺の建物情報および道路情報を前記仮想カメラの視点により前記ビュー映像に合成する、請求項に記載の車両周辺映像表示システム。
  11. 前記複数のカメラは、
    前記撮影された映像を前記周辺映像生成装置に近距離無線通信を通じて伝達する、請求項に記載の車両周辺映像表示システム。
JP2014544648A 2011-11-30 2012-09-27 3d車両周辺映像生成方法および装置 Active JP6095684B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR1020110127209A KR101265711B1 (ko) 2011-11-30 2011-11-30 3d 차량 주변 영상 생성 방법 및 장치
KR10-2011-0127209 2011-11-30
PCT/KR2012/007781 WO2013081287A1 (ko) 2011-11-30 2012-09-27 3d 차량 주변 영상 생성 방법 및 장치

Publications (2)

Publication Number Publication Date
JP2015507386A JP2015507386A (ja) 2015-03-05
JP6095684B2 true JP6095684B2 (ja) 2017-03-15

Family

ID=48535702

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014544648A Active JP6095684B2 (ja) 2011-11-30 2012-09-27 3d車両周辺映像生成方法および装置

Country Status (5)

Country Link
US (1) US9508189B2 (ja)
JP (1) JP6095684B2 (ja)
KR (1) KR101265711B1 (ja)
CN (1) CN104093600B (ja)
WO (1) WO2013081287A1 (ja)

Families Citing this family (63)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2447672B (en) 2007-03-21 2011-12-14 Ford Global Tech Llc Vehicle manoeuvring aids
US9969428B2 (en) 2011-04-19 2018-05-15 Ford Global Technologies, Llc Trailer backup assist system with waypoint selection
US9854209B2 (en) * 2011-04-19 2017-12-26 Ford Global Technologies, Llc Display system utilizing vehicle and trailer dynamics
US9926008B2 (en) 2011-04-19 2018-03-27 Ford Global Technologies, Llc Trailer backup assist system with waypoint selection
JP5904093B2 (ja) * 2012-10-30 2016-04-13 株式会社デンソー 車載画像生成装置
DE102013203404A1 (de) * 2013-02-28 2014-08-28 Robert Bosch Gmbh Verfahren und Vorrichtung zur dreidimensionalen Abbildung zumindest eines Teilbereichs eines Fahrzeugumfelds
KR101504335B1 (ko) * 2013-07-29 2015-03-23 인하대학교 산학협력단 어라운드뷰 제공 장치, 방법 및 차량
CN104691415B (zh) * 2013-12-07 2017-02-01 惠州市德赛西威汽车电子股份有限公司 全景泊车辅助装置
KR101543159B1 (ko) 2014-05-02 2015-08-10 현대자동차주식회사 카메라를 이용한 영상 조정 시스템 및 방법
EP3160138B1 (en) * 2014-06-20 2021-03-17 Clarion Co., Ltd. Image synthesis system, image synthesis device therefor, and image synthesis method
JP2016046747A (ja) * 2014-08-26 2016-04-04 富士通テン株式会社 画像処理装置、画像処理方法、及び、画像表示システム
US9880253B2 (en) * 2014-10-28 2018-01-30 Nissan North America, Inc. Vehicle object monitoring system
CN104385987B (zh) * 2014-11-14 2017-01-11 东风汽车有限公司 一种汽车监控方法及系统
US20160159281A1 (en) * 2014-12-04 2016-06-09 Hyundai Mobis Co., Ltd. Vehicle and control method thereof
US20160176340A1 (en) * 2014-12-17 2016-06-23 Continental Automotive Systems, Inc. Perspective shifting parking camera system
DE102015202863A1 (de) * 2015-02-17 2016-08-18 Conti Temic Microelectronic Gmbh Verfahren und Vorrichtung zum verzerrungsfreien Anzeigen einer Fahrzeugumgebung eines Fahrzeuges
KR101684270B1 (ko) * 2015-03-13 2016-12-20 주식회사 레드로버 표면윤곽 변화를 고려한 동적 프로젝션 매핑 방법
CN104960473B (zh) * 2015-07-03 2017-11-14 上海寅喆计算机科技有限公司 视角切换方法及装置
KR102336778B1 (ko) * 2015-07-31 2021-12-08 현대오토에버 주식회사 스카이라인을 이용한 차량의 측위 방법
JP2017030530A (ja) * 2015-07-31 2017-02-09 スズキ株式会社 映像表示システム
US9896130B2 (en) 2015-09-11 2018-02-20 Ford Global Technologies, Llc Guidance system for a vehicle reversing a trailer along an intended backing path
JP6575445B2 (ja) * 2015-09-30 2019-09-18 アイシン精機株式会社 車両用画像処理装置
US9836060B2 (en) 2015-10-28 2017-12-05 Ford Global Technologies, Llc Trailer backup assist system with target management
US10102610B2 (en) * 2016-04-05 2018-10-16 Qualcomm Incorporated Dual fisheye images stitching for spherical video
US10112646B2 (en) 2016-05-05 2018-10-30 Ford Global Technologies, Llc Turn recovery human machine interface for trailer backup assist
US20170374287A1 (en) * 2016-06-23 2017-12-28 Werner Lang System for Visually Depicting Fields of View of a Commercial Vehicle
DE102016217488A1 (de) * 2016-09-14 2018-03-15 Robert Bosch Gmbh Verfahren zum Bereitstellen einer Rückspiegelansicht einer Fahrzeugumgebung eines Fahrzeugs
JP6419128B2 (ja) * 2016-10-28 2018-11-07 キヤノン株式会社 画像処理装置、画像処理システム、画像処理方法及びプログラム
US20180152628A1 (en) * 2016-11-30 2018-05-31 Waymo Llc Camera peek into turn
CN106791325B (zh) * 2017-01-06 2022-08-23 上海寅家电子科技股份有限公司 全景环视系统的色差测光区自动识别系统及自动识别方法
US10970915B2 (en) * 2017-01-06 2021-04-06 Canon Kabushiki Kaisha Virtual viewpoint setting apparatus that sets a virtual viewpoint according to a determined common image capturing area of a plurality of image capturing apparatuses, and related setting method and storage medium
US10268201B2 (en) * 2017-02-28 2019-04-23 Mitsubishi Electric Research Laboratories, Inc. Vehicle automated parking system and method
US11049219B2 (en) 2017-06-06 2021-06-29 Gopro, Inc. Methods and apparatus for multi-encoder processing of high resolution content
JP6962036B2 (ja) * 2017-07-07 2021-11-05 株式会社アイシン 周辺監視装置
EP3675485B1 (en) * 2017-08-25 2021-03-24 Nissan Motor Co., Ltd. Surrounding vehicle display method and surrounding vehicle display apparatus
US10684625B2 (en) * 2017-08-30 2020-06-16 Robert Bosch Gmbh Automated parking for virtual parking spot
JP7013751B2 (ja) * 2017-09-15 2022-02-01 株式会社アイシン 画像処理装置
US10580299B2 (en) * 2017-10-13 2020-03-03 Waymo Llc Lane change notification
EP3701711B1 (en) * 2017-10-26 2023-07-26 Harman International Industries, Incorporated Surround view system and method thereof
US20180095475A1 (en) * 2017-11-22 2018-04-05 GM Global Technology Operations LLC Systems and methods for visual position estimation in autonomous vehicles
JP2019151304A (ja) * 2018-03-06 2019-09-12 アイシン精機株式会社 周辺監視装置
KR102077494B1 (ko) * 2018-05-11 2020-02-14 (주)넥셀 어라운드뷰 제공 방법 및 장치
GB2573792B (en) * 2018-05-17 2022-11-09 Denso Corp Surround monitoring system for vehicles
JP7208356B2 (ja) * 2018-09-26 2023-01-18 コーヒレント・ロジックス・インコーポレーテッド 任意の世界ビューの生成
US10715714B2 (en) * 2018-10-17 2020-07-14 Verizon Patent And Licensing, Inc. Machine learning-based device placement and configuration service
KR102212229B1 (ko) * 2018-11-07 2021-02-05 삼성전자주식회사 이동체에 포함된 카메라 시스템 및 그 제어방법.
GB2581191B (en) * 2019-02-08 2022-02-16 Jaguar Land Rover Ltd Image system for a vehicle
DE102019207415A1 (de) * 2019-05-21 2020-11-26 Conti Temic Microelectronic Gmbh Verfahren zur Erzeugung eines Bildes einer Fahrzeugumgebung und Vorrichtung zur Erzeugung eines Bildes einer Fahrzeugumgebung
KR102235951B1 (ko) * 2019-06-20 2021-04-05 주식회사 아이닉스 차량용 영상 생성 장치 및 방법
US11228781B2 (en) 2019-06-26 2022-01-18 Gopro, Inc. Methods and apparatus for maximizing codec bandwidth in video applications
CN110503597B (zh) * 2019-07-09 2023-05-16 浙江浩腾电子科技股份有限公司 一种基于2d结构模型的车辆视点规范化方法
JP6725734B2 (ja) * 2019-08-05 2020-07-22 株式会社デンソーテン 画像表示装置、画像表示システム、画像表示方法、及び、プログラム
CN114556439A (zh) * 2019-10-07 2022-05-27 三菱电机株式会社 虚拟摄像机控制装置、虚拟摄像机控制方法和虚拟摄像机控制程序
US11178388B2 (en) * 2019-10-07 2021-11-16 Gentex Corporation 3D display system for camera monitoring system
JP7442029B2 (ja) 2019-10-17 2024-03-04 株式会社東海理化電機製作所 画像処理装置、画像処理プログラム
US11481863B2 (en) 2019-10-23 2022-10-25 Gopro, Inc. Methods and apparatus for hardware accelerated image processing for spherical projections
CN111767844B (zh) * 2020-06-29 2023-12-29 阿波罗智能技术(北京)有限公司 用于三维建模的方法和装置
JP2022048455A (ja) * 2020-09-15 2022-03-28 マツダ株式会社 車両用表示装置
JP2022101979A (ja) * 2020-12-25 2022-07-07 株式会社デンソー 画像生成装置、画像生成方法
KR102473407B1 (ko) * 2020-12-28 2022-12-05 삼성전기주식회사 틸트 카메라를 이용한 차량의 svm 시스템
KR102513762B1 (ko) * 2021-03-02 2023-03-27 주식회사 켐트로닉스 사이드미러 가상 영상 생성 장치 및 방법
US11691566B2 (en) * 2021-11-17 2023-07-04 GM Global Technology Operations LLC Intelligent vehicle systems and control logic for surround view augmentation with object model recognition
WO2024057060A1 (en) * 2022-09-13 2024-03-21 Vinai Artificial Intelligence Application And Research Joint Stock Company Surround view monitoring system and method

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6498620B2 (en) * 1993-02-26 2002-12-24 Donnelly Corporation Vision system for a vehicle including an image capture device and a display system having a long focal length
US6891563B2 (en) * 1996-05-22 2005-05-10 Donnelly Corporation Vehicular vision system
WO1999033684A2 (en) * 1997-12-31 1999-07-08 Gentex Corporation Vehicle vision system
EP2309453A3 (en) * 1998-07-31 2012-09-26 Panasonic Corporation Image displaying apparatus and image displaying method
KR20010112433A (ko) 1999-04-16 2001-12-20 마츠시타 덴끼 산교 가부시키가이샤 화상처리장치 및 감시시스템
JP3298851B2 (ja) * 1999-08-18 2002-07-08 松下電器産業株式会社 多機能車載カメラシステムと多機能車載カメラの画像表示方法
KR100866450B1 (ko) * 2001-10-15 2008-10-31 파나소닉 주식회사 차량 주위 감시 장치 및 그 조정 방법
JP3871614B2 (ja) * 2002-06-12 2007-01-24 松下電器産業株式会社 運転支援装置
JP2006287826A (ja) 2005-04-05 2006-10-19 Nissan Motor Co Ltd 車両用画像生成装置および方法
KR100734678B1 (ko) 2005-06-14 2007-07-02 엘지전자 주식회사 건물정보 표시방법
US7728869B2 (en) 2005-06-14 2010-06-01 Lg Electronics Inc. Matching camera-photographed image with map data in portable terminal and travel route guidance method
KR100674805B1 (ko) * 2005-06-14 2007-01-29 엘지전자 주식회사 카메라 영상과 지도 데이터 간에 건물 매칭 방법
US7728879B2 (en) * 2006-08-21 2010-06-01 Sanyo Electric Co., Ltd. Image processor and visual field support device
US8199975B2 (en) * 2006-12-12 2012-06-12 Cognex Corporation System and method for side vision detection of obstacles for vehicles
JP5369465B2 (ja) * 2008-03-25 2013-12-18 富士通株式会社 車両用画像処理装置、車両用画像処理方法、車両用画像処理プログラム
KR101393918B1 (ko) * 2008-07-08 2014-05-13 현대자동차주식회사 차량 전방위 감시 시스템
TWI332454B (en) * 2008-09-10 2010-11-01 Univ Nat Chiao Tung Intelligent vehicle traffic safety supply system
JP5182042B2 (ja) 2008-11-28 2013-04-10 富士通株式会社 画像処理装置、画像処理方法及びコンピュータプログラム
JP2010185761A (ja) * 2009-02-12 2010-08-26 Toyota Motor Corp ナビゲーションシステム、道路地図表示方法
JP5439890B2 (ja) * 2009-03-25 2014-03-12 富士通株式会社 画像処理方法、画像処理装置及びプログラム
JP5271154B2 (ja) * 2009-05-29 2013-08-21 富士通テン株式会社 画像生成装置及び画像表示システム
JP2010274813A (ja) * 2009-05-29 2010-12-09 Fujitsu Ten Ltd 画像生成装置及び画像表示システム
US8502860B2 (en) * 2009-09-29 2013-08-06 Toyota Motor Engineering & Manufacturing North America (Tema) Electronic control system, electronic control unit and associated methodology of adapting 3D panoramic views of vehicle surroundings by predicting driver intent
JP5548002B2 (ja) * 2010-03-25 2014-07-16 富士通テン株式会社 画像生成装置、画像表示システム及び画像生成方法
DE102010042063B4 (de) * 2010-10-06 2021-10-28 Robert Bosch Gmbh Verfahren und Vorrichtung zum Bestimmen von aufbereiteten Bilddaten über ein Umfeld eines Fahrzeugs

Also Published As

Publication number Publication date
CN104093600A (zh) 2014-10-08
WO2013081287A1 (ko) 2013-06-06
CN104093600B (zh) 2016-12-07
US9508189B2 (en) 2016-11-29
US20140347450A1 (en) 2014-11-27
KR101265711B1 (ko) 2013-05-20
JP2015507386A (ja) 2015-03-05

Similar Documents

Publication Publication Date Title
JP6095684B2 (ja) 3d車両周辺映像生成方法および装置
JP6675448B2 (ja) 車両位置検出方法及び装置
KR101265667B1 (ko) 차량 주변 시각화를 위한 3차원 영상 합성장치 및 그 방법
EP3362982B1 (en) Systems and methods for producing an image visualization
JP6310652B2 (ja) 映像表示システム、映像合成装置及び映像合成方法
CN112074875B (zh) 构造3d特征图的组优化深度信息方法和系统
JP5491235B2 (ja) カメラキャリブレーション装置
US8872920B2 (en) Camera calibration apparatus
US8817079B2 (en) Image processing apparatus and computer-readable recording medium
US20180210442A1 (en) Systems and methods for controlling a vehicle using a mobile device
KR20160145598A (ko) 어떤 차량의 차량 주변을 왜곡 없이 표시하기 위한 방법 및 장치
JP2009288152A (ja) 車載カメラのキャリブレーション方法
JP6471522B2 (ja) カメラパラメータ調整装置
KR20180020274A (ko) 패널 변환
KR20180021822A (ko) 후방 교차 교통-퀵 룩스
JP2011254128A (ja) 平面図生成装置及び平面図生成方法
KR102079332B1 (ko) 3d 차량 주변 영상 생성 방법 및 시스템
KR101265710B1 (ko) 차량 설치 카메라 외부 파라미터 추정 방법 및 장치
KR101351911B1 (ko) 카메라의 영상 처리 장치 및 방법
KR101398068B1 (ko) 차량 설치 카메라 외부 파라미터 추정 방법 및 장치
CN112347825B (zh) 车身环视模型的调整方法及其系统
KR101331893B1 (ko) 차량 설치 카메라 외부 파라미터 추정 방법 및 장치
CN107341845B (zh) 一种车载全景图像阴影遮盖方法
WO2023210682A1 (ja) 表示制御装置、ヘッドアップディスプレイ装置、及び表示制御方法
EP3701711B1 (en) Surround view system and method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150902

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160628

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160913

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161222

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170214

R150 Certificate of patent or registration of utility model

Ref document number: 6095684

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250