JP2020516100A - アラウンドビュー提供装置 - Google Patents

アラウンドビュー提供装置 Download PDF

Info

Publication number
JP2020516100A
JP2020516100A JP2019538193A JP2019538193A JP2020516100A JP 2020516100 A JP2020516100 A JP 2020516100A JP 2019538193 A JP2019538193 A JP 2019538193A JP 2019538193 A JP2019538193 A JP 2019538193A JP 2020516100 A JP2020516100 A JP 2020516100A
Authority
JP
Japan
Prior art keywords
area
vehicle
around view
image
boundary line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019538193A
Other languages
English (en)
Other versions
JP7242531B2 (ja
Inventor
キム,ドンギュン
リム,ソンヒョン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LG Innotek Co Ltd
Original Assignee
LG Innotek Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LG Innotek Co Ltd filed Critical LG Innotek Co Ltd
Publication of JP2020516100A publication Critical patent/JP2020516100A/ja
Application granted granted Critical
Publication of JP7242531B2 publication Critical patent/JP7242531B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Arrangement of adaptations of instruments
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/27Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60K35/22
    • B60K35/28
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/18Conjoint control of vehicle sub-units of different type or different function including control of braking systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/20Conjoint control of vehicle sub-units of different type or different function including control of steering systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • G06T5/80
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • B60K2360/1523
    • B60K2360/171
    • B60K2360/176
    • B60K2360/178
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/102Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using 360 degree surveillance camera system
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/303Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using joined images, e.g. multiple camera images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/802Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for monitoring and displaying vehicle exterior blind spot views
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/143Alarm means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Abstract

アラウンドビュー提供装置は、第1及び第2映像情報を獲得する第1及び第2カメラと、プロセッサーを含む。プロセッサーは、第1及び第2映像をもとに被写体の重畳領域を含む第1領域と被写体の重畳領域を含まない第2領域とを含むアラウンドビュー映像を生成することができる。被写体の重畳領域は、第1及び第2映像で第1及び第2境界線の間に配置され、第1境界線は第1領域内に位置し、第2境界線は前記第2領域と接する。プロセッサーは、第1オブジェクトが一定の距離以内に近接して第2境界線を通ることと予測される場合、第2領域が被写体の重畳領域を含むように第2領域を変更させたアラウンドビュー映像を生成することができる。

Description

本発明は、アラウンドビュー提供装置に関する。
車両は、人または貨物を運送する目的に車両を駆動させて走行するすべての装置である。車両の一般的な例として自動車を挙げられる。
自動車は、使用される原動機の種類によって、内燃機関(internal combustion engine)自動車、外燃機関(external combustion engine)自動車、ガスタービン(gas turbine)自動車または電気自動車(electric vehicle)などに分類され得る。
電気自動車は、電気をエネルギー源として使用して電気モーターを駆動させる自動車であって、また、純粋電気自動車、ハイブリッド電気車(Hybrid Electric Vehicle:HEV)、プラグインハイブリッド電気車(Plug−in Hybrid Electric Vehicle:PHEV)、水素燃料電池車(Fuel Cell Electric Vehicle:FCEV)などに分類され得る。
最近、運転者と歩行者の安全や便宜のために知能型自動車(Smart Vehicle)の開発及び商用化が活発に進行されている。知能型自動車は、情報通信技術(Information Technology:IT)を融合した最尖端自動車であって、自動車自らの先端システム導入はもちろん知能型交通システムとの連動を介して最適の交通效率を提供する。具体的に、知能型自動車は、自動走行機能、適応式定速走行制御(Adaptive Cruise Control:ACC)、障害物感知、衝突感知、精緻な地図提供、目的地までの経路設定及び主要場所に対する位置提供などを行うことによって、運転者と搭乗者及び歩行者の安全と便宜を極大化する。
このように運転者と搭乗者及び歩行者の安全と便宜を極大化するための装置のうち一つとしてアラウンドビュー提供装置が注目されている。
アラウンドビュー提供装置は、カメラを用いて車両を中心にアラウンドビュー映像を提供するものであって、運転者は、アラウンドビュー映像を介して車両周辺をリアルタイムで見ることができる。
アラウンドビュー映像は、互いに異なる方向から獲得された映像を合成して生成されるため、隣接する映像の間に境界が存在する。
しかし、従来のアラウンドビュー提供装置は、このような境界に歩行者や危険物体などが位置する場合、アラウンドビュー映像でこのような歩行者や危険物体などが重畳されたり消えるようになって、運転者が歩行者や危険物体を認知することができなくて歩行者事故や車両事故が発生するという問題がある。
本発明は、前述した問題及び他の問題を解決することを目的とする。
本発明の他の目的は、どんな状況でもアラウンドビュー映像でオブジェクトが消えたり重畳されないようにするアラウンドビュー提供装置、提供方法及びこれを備えた車両を提供する。
前記または他の目的を果たすために本発明の一側面によれば、アラウンドビュー提供装置は、第1及び第2映像情報を獲得する第1及び第2カメラ;及びプロセッサーを含む。前記プロセッサーは、前記第1及び第2映像をもとに被写体の重畳領域を含む第1領域と前記被写体の重畳領域を含まない第2領域とを含むアラウンドビュー映像を生成することができる。前記被写体の重畳領域は、前記第1及び第2映像で第1及び第2境界線の間に配置され、前記第1境界線は、前記第1領域内に位置され、前記第2境界線は、前記第2領域と接することができる。前記プロセッサーは、第1オブジェクトが一定の距離以内に近接して前記第2境界線を通ることと予測される場合、前記第2領域が前記被写体の重畳領域を含むように前記第2領域を変更させたアラウンドビュー映像を生成することができる。
本発明の他の側面によれば、アラウンドビュー提供装置は、第1及び第2映像を獲得する第1及び第2カメラ;及びプロセッサーを含む。
前記プロセッサーは、前記獲得された第1及び第2映像をもとに重畳領域を含む第1合成領域と前記重畳領域を含まない第2合成領域とを含むアラウンドビュー映像を生成し、第1オブジェクトが一定の距離以内に近接して第2境界線を通ることと予測される場合、前記重畳領域を含むように前記第2合成領域を拡大させたアラウンドビュー変造映像を生成する。前記重畳領域は、第1境界線及び前記第2境界線の間に配置され、前記第1境界線は、前記第1合成領域内に位置され、前記第2境界線は、前記第2合成領域と接する。
本発明のまた他の側面によれば、車両は、前記アラウンドビュー提供装置を備える。
本発明のまた他の側面によれば、アラウンドビュー提供方法は、第1及び第2カメラから獲得された第1及び第2映像をもとに重畳領域を含む第1合成領域と前記重畳領域を含まない第2合成領域とを含むアラウンドビュー映像を生成する段階−前記重畳領域は第1及び第2境界線の間に配置され、前記第1境界線は前記第1合成領域内に位置し、前記第2境界線は前記第2合成領域と接する−;及び第1オブジェクトが一定の距離以内に近接して前記第2境界線を通ることと予測される場合、前記重畳領域を含むように前記第2合成領域を拡大させたオラウンブビュ変造映像を生成する段階を含む。
本発明のまた他の側面によれば、コンピューターの読めるプログラムが記録された記録媒体は、次のようなアラウンドビュー提供方法を行うプログラムが記録される。
前記アラウンドビュー提供方法は、第1及び第2カメラそれぞれから獲得された第1及び第2映像をもとに重畳領域を含む第1合成領域と前記重畳領域を含まない第2合成領域とを含むアラウンドビュー映像を生成する段階;及びオブジェクトが一定の距離以内に近接して第2境界線を通ることと予測される場合、前記重畳領域を含むように前記第2合成領域を拡大させたアラウンドビュー変造映像を生成する段階を含む。
前記重畳領域は、第1境界線及び前記第2境界線の間に配置され、前記第1境界線は前記第1合成領域内に位置し、前記第2境界線は前記第2合成領域と接する。
本発明によるアラウンドビュー提供装置の效果について説明すれば次の通りである。
本発明の実施例の少なくとも一つによれば、アラウンドビュー映像の特定の境界線にオブジェクトが位置する場合、当該境界線が変更されるように当該境界線に隣接する合成領域が重畳領域をさらに含むように拡大されることによって、当該オブジェクトが境界線に位置しなくなり、前記拡大された合成領域が同じカメラによって獲得された映像に生成されて視点(viewpoint)の連続性を維持する。これによって、当該境界線に位置したオブジェクトは、重畳されたり消えないという長所がある。
本発明の実施例の少なくとも一つによれば、アラウンドビュー映像の特定の境界線にオブジェクトが位置する場合、重畳領域が第1合成領域の映像で第2合成領域の映像に漸進的にまたは順に変更されることによって、映像のスムーズな転換を介して映像の急な変更による目障りのような不便を解消することができるという長所がある。
本発明の実施例の少なくとも一つによれば、少なくとも一つ以上のオブジェクトが接近されて、このうち第1オブジェクトの消失を防止するためにアラウンドビュー映像が変調され、第2オブジェクトが前記変調されたアラウンドビュー映像の特定の境界線に位置して第2オブジェクトが消えるようになる場合、第2オブジェクトが位置した部分を撮影するカメラから獲得された映像を別途の画面を介してディスプレイされるようにすることによって、第2オブジェクトの消失を補完して製品に対する信頼性が向上することができるという長所がある。
本発明の実施例の少なくとも一つによれば、アラウンドビュー映像が変調されて前記変調されたアラウンドビュー映像内の各合成領域の変更を容易に識別できるように識別バーがディスプレイされるようにすることによって、運転者の関心を誘導して事故により積極的に対処することができるという長所がある。
本発明の適用可能性の追加の範囲は、以下の詳細な説明から明らかになるであろう。しかし、本発明の思想及び範囲内で多様な変更及び修正は当業者にとって明確に理解され得るので、詳細な説明及び本発明の望ましい実施例のような特定実施例は、単なる例示として与えられたものと理解されるべきである。
実施例に係るアラウンドビュー提供装置の構成を示したブロック図である。 実施例に係るアラウンドビュー提供装置を備える車両の外観を示した図である。 実施例に係るアラウンドビュー提供装置に含まれるセンサー部が車両に配置された様子を示す。 実施例に係るアラウンドビュー提供装置を含む車両の構成を示したブロック図である。 アラウンドビュー映像を示す。 第1及び第3カメラそれぞれから獲得された映像を示す。 第1及び第3カメラそれぞれから獲得された映像をもとに生成された第1及び第3合成領域を示す。 第2及び第4カメラそれぞれから獲得された映像を示す。 第2及び第4カメラそれぞれから獲得された第2及び第4映像をもとに生成された第2及び第4合成領域を示す。 実施例に係るアラウンドビュー提供装置のプロセッサーの構成を示したブロック図である。 実施例に係るアラウンドビュー変造方法を説明する図である。 他の実施例に係るプロセッサーの構成を示したブロック図である。 複数のオブジェクトの接近と関連した画面構成の一例を示す。 また他の実施例に係るプロセッサーの構成を示したブロック図である。 アラウンドビュー映像が変調されるとき、各合成領域の変更を識別するようにする識別バーを示す。 アラウンドビュー映像の各合成領域の境界にオブジェクトが位置するときの処理過程を示す。 複数のオブジェクトの接近と関連した画面構成の他の例を示す。
発明の実施のための形態
以下、添付された図面を参照して本明細書に開示された実施例を詳しく説明するが、 図面符号に関係なく同一または類似の構成要素は同一の参照符号を付与し、これに対する重複説明は省略することにする。以下の説明で使用される構成要素に対する接尾辞「モジュール」および「部」は明細書作成の容易さだけが考慮されて付与されたり混用されるものであって、それ自体で互いに区別される意味または役割を有するものではない。また、本明細書に開示された実施例を説明するにおいて、関連した公知技術に対いする具体的な説明が、本明細書に開示された実施例の要旨を曖昧にし得ると判断される場合にはその詳細な説明を省略する。また、添付された図面は本明細書に開示された実施例を易しく理解するようにするためのことに過ぎず、添付された図面によって本明細書に開示された技術的思想が制限されず、本発明の思想および技術範囲に含まれるすべての変更、均等物ないし代替物を含むものと理解されるべきである。
第1、第2などのように序数を含む用語は多様な構成要素を説明するために使用され得るが、前記構成要素は前記用語によって限定されない。前記用語は一つの構成要素を他の構成要素から区別する目的だけで使用される。
ある構成要素が他の構成要素に「連結されて」いるとか「接続されて」いると言及された際には、その他の構成要素に直接的に連結されているか、または接続されていることもあるが、中間に他の構成要素が存在することもあると理解されるべきである。一方、ある構成要素が他の構成要素に「直接連結されて」いるとか「直接接続されて」いると言及された際には、中間に他の構成要素が存在しないことと理解されるべきである。
単数の表現は文脈上明白に異なるように意味しない限り、複数の表現を含む。
本出願において、「含む」または「有する」などの用語は明細書上に記載された特徴、数字、ステップ、動作、構成要素、部品またはこれらを組み合わせたものが存在することを指定しようとすることによってあって、一つまたはその以上の他の特徴や数字、ステップ、動作、構成要素、部品またはこれらを組み合わせたものなどの存在または付加可能性を予め排除しないことと理解されるべきである。
本明細書で記述する車両は、自動車とバイクなどすべての種類の車両を含むことができる。以下では、自動車の場合を例を挙げて説明する。
また、車両は、動力源としてエンジンを備える内燃機関車両、動力源としてエンジンと電気モーターを備えるハイブリッド車両、動力源として電気モーターを備える電気車両などをすべて含む概念であり得る。
以下では、車両の左側は、車両の走行方向を基準に左側を意味し、車両の右側は、車両の走行方向を基準に右側を意味する。以下の説明においては、別途の言及がない限り、車両は、ハンドルが左側に位置したLeft Hand Drive(LHD)車両を意味する。
本明細書で説明するアラウンドビュー提供装置は、車両に備えられる別途の装置であって、車両とのデータ通信を介して必要な情報を取り交わして車両周辺のオブジェクトに対するアラウンドビュー映像を提供する装置と定義する。しかし、実施例によって、アラウンドビュー提供装置は、車両の構成要素のうち一部の集合で形成されて、車両の一部を構成することもできる。
アラウンドビューは、車両周辺を見せる映像であって、トップビュー(top view)またはバーズビュー(bird view)と命名されることもある。このようなアラウンドビューは、互いに異なる方向から獲得された映像をもとに生成され得る。
アラウンドビュー提供装置が別途の装置であるとき、アラウンドビュー提供装置の各構成要素(図1参照)の少なくとも一部は、アラウンドビュー提供装置に含まれず、車両または車両に搭載された他の装置に含まれる外部構成要素であり得る。このような外部構成要素は、アラウンドビュー提供装置のインターフェース部を介してデータを送受信することによって、アラウンドビュー提供装置を構成することと理解することができる。
説明の便宜のために、本明細書においては、アラウンドビュー提供装置が図1に示された各構成要素を直接含むものと説明する。
以下、添付した図面を参照して実施例に係るアラウンドビュー提供装置について詳しく説明する。
図1は、実施例に係るアラウンドビュー提供装置の構成を示したブロック図である。
図1を参照すれば、アラウンドビュー提供装置100は、センシング部155及びプロセッサー170を含むことができる。また、実施例に係るアラウンドビュー提供装置100は、入力部110、通信部120、インターフェース部130、メモリー140、モニタリング部165、ディスプレイ部180、オーディオ出力部185及び電源供給部190の少なくとも一つ以上をさらに含むことができる。但し、図1に示された構成要素は、アラウンドビュー提供装置100を実現することにおいて必須のものではないので、実施例に係るアラウンドビュー提供装置100は、上記の列挙された構成要素より多いか、または少ない構成要素を有することができる。
各構成について詳しく説明すれば、入力部110は、ユーザの入力を感知することができる。例えば、ユーザは、入力部110を介してアラウンドビュー提供装置100が提供するアラウンドビューに対する設定を入力するか、またはアラウンドビュー提供装置100の電源をオン(on)/オフ(off)させる実行などを入力することができる。
このような入力部110は、ユーザのジェスチャーを感知するジェスチャー入力部(例えば、optical sensorなど)、タッチを感知するタッチ入力部(例えば、タッチセンサー(touch sensor)、タッチキ(touch key)、プシキ(mechanical key)など)及び音声入力を感知するマイクロホン(microphone)の少なくとも一つ以上を含み、ユーザ入力を感知することができる。
通信部120は、他車両510、移動端末機600及びサーバー500などと通信を行うことができる。
この場合、アラウンドビュー提供装置100は、通信部120を介してナビゲーション(Navigation)情報、他車両の走行情報及び交通情報の少なくとも一つの情報を受信することができる。また、アラウンドビュー提供装置100は、通信部120を介して当該アラウンドビュー提供装置100が備えられた自車両に対する情報を送信することができる。
具体的に、通信部120は、移動端末機600または/及びサーバー500から位置情報、天気情報及び道路交通状況情報(例えば、TPEG(Transport Protocol Expert Group)など)の少なくとも一つの情報を受信することができる。
また、通信部120は、知能型交通システム(ITS)を揃えたサーバー500から交通情報を受信することができる。ここで、交通情報は、交通信号情報、車線情報、車両周辺情報または位置情報などを含むことができる。
通信部120は、移動端末機600または/及びサーバー500にナビゲーション情報を送信することができる。ここで、ナビゲーション情報は、車両の走行と関連した地図情報、車線情報、車両の位置情報、設定された目的地情報及び目的地に応じた経路情報の少なくとも一つ以上を含むことができる。
例えば、通信部120は、ナビゲーション情報で車両のリアルタイム位置を受信することができる。具体的に、通信部120は、GPS(Global Positioning System)モジュールまたは/及び WiFi(Wireless Fidelity)モジュールを含んで車両の位置を獲得することができる。
また、通信部120は、他車両510から他車両510の走行情報を受信して自車両の情報に他車両510に送信して、車両間の走行情報を互いに共有することができる。ここで、互いに共有する走行情報は、車両の移動方向情報、位置情報、車速情報、加速度情報、移動経路情報、前進/後進情報、隣接車両情報及びターンシグナル情報の少なくとも一つ以上の情報を含むことができる。
また、ユーザが車両に乗った場合、ユーザの移動端末機600とアラウンドビュー提供装置100は、 自動的に、またはユーザのアプリケーション実行によって互いにペアリング(pairing)を行うことができる。
このような通信部120は、他車両510、移動端末機600またはサーバー500と無線(wireless)方式でデータを交換することができる。
詳細には、通信部120は、無線データ通信方式を用いて無線通信を行うことができる。無線データ通信方式としては、移動通信のための技術標準または通信方式(例えば、GSM(Global System for Mobile communication)、CDMA(Code Division Multi Access)、CDMA2000(Code Division Multi Access2000)、EV−DO(Enhanced Voice−Data Optimized or Enhanced Voice−Data Only)、WCDMA(Wideband CDMA)、HSDPA(High Speed Downlink Packet Access)、HSUPA(High Speed Uplink Packet Access)、LTE(Long Term Evolution)、LTE−A(Long Term Evolution−Advanced)などを利用することができる。
また、通信部120は、無線インターネット技術を利用することができ、例えば、無線インターネット技術として、WLAN(Wireless LAN)、Wi−Fi(Wireless−Fidelity)、Wi−Fi(Wireless Fidelity)Direct、DLNA(Digital Living Network Alliance)、WiBro(Wireless Broadband)、WiMAX(World Interoperability for Microwave Access)、HSDPA(High Speed Downlink Packet Access)、HSUPA(High Speed Uplink Packet Access)、LTE(Long Term Evolution)、LTE−A(Long Term Evolution−Advanced)などを利用することができる。
また、通信部120は、近距離通信(Short range communication)を利用することができ、例えば、ブルートゥース(BluetoothTM)、RFID(Radio Frequency Identification)、赤外線通信(Infrared Data Association;IrDA)、UWB(Ultra Wideband)、ZigBee、NFC(Near Field Communication)、Wi−Fi(Wireless−Fidelity)、wi−fi Direct、Wireless USB(Wireless Universal Serial Bus)技術の少なくとも一つを利用して、近距離通信を支援することができる。
また、アラウンドビュー提供装置100は、近距離通信方式を用いて車両内部の移動端末機600とペアリング(paring)し、移動端末機600の長距離無線通信モジュールを用いて他車両510またはサーバー500などと無線でデータを交換することもできる。
インターフェース部130は、車両を全体的に制御するECU(Electronic Control Unit)770からデータを受信したり、プロセッサー170で処理または生成された信号を外部に伝送するなど、アラウンドビュー提供装置100の内外部間のインターフェースを行うことができる。
具体的に、アラウンドビュー提供装置100は、インターフェース部130を介して車両の走行情報、ナビゲーション情報及びセンシング情報の少なくとも一つの情報を受信することができる。
また、アラウンドビュー提供装置100は、インターフェース部130を介してアラウンドビューの実行のための制御信号や、アラウンドビュー提供装置100で生成した情報などを車両のECU770に送信することができる。
このために、インターフェース部130は、有線通信または無線通信方式によって車両内部のECU770、AVN(Audio Video Navigation)装置400及びセンシング部760の少なくとも一つとデータ通信を行うことができる。
具体的に、インターフェース部130は、ECU770、AVN 装置400または/及び別途のナビゲーション装置(図示せず)とのデータ通信によってナビゲーション情報を受信することができる。
また、インターフェース部130は、ECU770またはセンシング部760からセンシング情報を受信することができる。
ここで、センシング情報は、車両の方向情報、位置情報、車速情報、加速度情報、勾配情報、前進/後進情報、燃料情報、前後方の車両との距離情報、車両と車線との距離情報及びターンシグナル情報の少なくとも一つ以上の情報を含むことができる。
また、センシング情報は、ヘディングセンサー(heading sensor)、ヨーセンサー(yaw sensor)、ジャイロセンサー(gyro sensor)、ポジションモジュール(position module)、車前進/後進センサー、ホイールセンサー(wheel sensor)、車両速度センサー、車体傾斜感知センサー、バッテリーセンサー、燃料センサー、タイヤセンサー、ハンドルの回転によるステアリングホイールセンサー、車両内部温度センサー、車両内部湿度センサー、ドアセンサーなどから獲得され得る。一方、ポジションモジュールは、GPS情報受信のためのGPSモジュールを含むことができる。
インターフェース部130は、車両のユーザ入力部724を介して受信されるユーザ入力を受信することができる。この場合、インターフェース部130は、ユーザ入力を車両の入力部724から直接受信するか、または車両のECU770を介して受信することができる。
また、インターフェース部130は、サーバー500から獲得された交通情報を受信することもできる。サーバー500は、交通を管制する交通管制所に位置するサーバーであり得る。例えば、車両の通信部710を介してサーバー500から交通情報が受信される場合、インターフェース部130は、交通情報を車両のECU770から受信することもできる。
メモリー140は、プロセッサー170の処理または制御のためのプログラムなどアラウンドビュー提供装置100の全般的な動作のための多様なデータを保存することができる。
また、メモリー140は、アラウンドビュー提供装置100で駆動される複数の応用プログラム(application programまたはアプリケーション(application))、アラウンドビュー提供装置100の動作のためのデータ、命令語を保存することができる。このような応用プログラムの少なくとも一部は、無線通信を介して外部サーバーからダウンロードされ得る。また、このような応用プログラムの少なくとも一部は、アラウンドビュー提供装置100の基本的な機能(例えば、車両周辺案内機能)のために出庫当時からアラウンドビュー提供装置100上に存在することができる。
このような応用プログラムは、メモリー140に保存されて、プロセッサー170によってアラウンドビュー提供装置100の動作または機能を行うように駆動され得る。
一方、メモリー140は、映像に含まれるオブジェクトを確認するためのデータを保存することができる。例えば、メモリー140は、カメラ160を介して獲得された車両周辺映像から所定のオブジェクトが検出される場合、多様なアルゴリズムによって、前記オブジェクトが何に該当するかを確認するためのデータを保存することができる。
例えば、メモリー140は、カメラ160を介して獲得された映像に含まれるオブジェクトが車線、交通表示板、二輪車、歩行者のようなオブジェクトに該当するかを判断するための比較映像及び比較データを保存することができる。
また、メモリー140は、アラウンドビュー映像を生成するのに使用される既に設定された合成情報や視点情報を保存することができる。
互いに異なる方向から獲得された映像が合成されてアラウンドビューが生成され得る。このとき、各映像から生成された合成領域の範囲情報と境界線情報が合成情報としてメモリー140に保存され得る。
視点情報は、カメラの視点から見られる方向に関する情報であり得るが、これに限定しない。
このようなメモリー140は、ハードウェア的に、フラッシュメモリータイプ(flash memory type)、ハードディスクタイプ(hard disk type)、SSDタイプ(Solid State Disk type)、SDDタイプ(Silicon Disk Drive type)、マルチメディアカードマイクロタイプ(multimedia card micro type)、カードタイプのメモリー(例えば、SDまたはXDメモリーなど)、ラム(random access memory;RAM)、SRAM(static random access memory)、ロム(read−only memory;ROM)、EEPROM(electrically erasable programmable read−only memory)、PROM(programmable read−only memory)、磁気メモリー、磁気ディスク及び光ディスクの少なくとも一つのタイプの保存媒体を含むことができる。
また、アラウンドビュー提供装置100は、インターネット(internet)上でメモリー140の保存機能を行うウェブストレージ(web storage)と関連して動作されることもある。
モニタリング部165は、車両内部の状況に対する情報を獲得することができる。
モニタリング部165の感知する情報は、顔面認識情報、指紋認識(Fingerprint)情報、虹彩認識(Iris−scan)情報、網膜認識(Retina−scan)情報、掌形(Hand geometry)情報、音声認識(Voice recognition)情報の少なくとも一つ以上の情報を含むことができる。そしてモニタリング部165は、このような生体認識情報を感知するその他センサーを含むことができる。
アラウンドビュー提供装置100は、車両周辺のオブジェクトを感知するセンシング部155をさらに含むことができる。実施例によって、アラウンドビュー提供装置100は、車両のセンシング部760で得られたセンシング情報をインターフェース部130を介して受信することもできる。このように獲得されたセンシング情報は、車両周辺情報に含まれ得る。
センシング部155は、車両周辺のオブジェクトの位置を感知する距離センサー150と、車両周辺を撮影して映像を獲得するカメラ160の少なくとも一つを含むことができる。
距離センサー150は、自車両に隣接したオブジェクトの位置、オブジェクトが離隔した方向、隔離距離またはオブジェクトの移動方向などを精緻に感知することができる。このような距離センサー150は、感知されたオブジェクトとの位置を持続的に測定して、自車両との位置関係に対する変化を正確に感知することができる。
距離センサー150は、車両の前後及び左右の少なくとも一つの領域に位置したオブジェクトを感知することができる。このために、距離センサー150は、車両の多様な位置に配置され得る。
距離センサー150は、ライだ(Lidar)センサー、レーザー(laser)センサー、超音波(ultrasonic waves)センサー及びステレオカメラ(stereo camera)など距離測定が可能な多様な種類のセンサーの少なくとも一つ以上を含むことができる。
例えば、距離センサー150は、レーザーセンサーであって、レーザー信号変造方法によって、時間遲延方式(time−of−flight、TOF)または/及び位相変造方式(phase−shift)などを用いて自車両とオブジェクトとの間の位置関係を正確に測定することができる。
一方、オブジェクトに対する情報は、カメラ160が撮影した映像をプロセッサー170が分析して獲得され得る。具体的に、アラウンドビュー提供装置100は、カメラ160で車両周辺を撮影し、獲得された車両周辺映像をプロセッサー170が分析して車両周辺のオブジェクトを検出し、オブジェクトの属性を判断してセンシング情報を生成することができる。
ここで、オブジェクト情報は、オブジェクトの種類、オブジェクトが表示する交通信号情報、オブジェクトと車両との間の距離及びオブジェクトの位置の少なくとも一つの情報として、センシング情報に含まれ得る。
具体的に、プロセッサー170は、撮影された映像から映像処理を介してオブジェクトを検出し、オブジェクトをトラッキングし、オブジェクトとの距離を測定し、オブジェクトを確認するなどのオブジェクト分析を行うことによって、オブジェクト情報を生成することができる。
示されなかったが、センシング部155は、超音波センサーをさらに含むことができる。超音波センサーは、複数の超音波センサーを含むことができるが、これに限定しない。各超音波センサーから送信される超音波と、送信された超音波がオブジェクトによって反射して受信される超音波との間の差をもとに車両周辺のオブジェクトを感知することができる。
一方、プロセッサー170は、四方から撮影された映像を合成して車両を上部から見下ろしたアラウンドビュー映像を提供することができる。
プロセッサー170がオブジェクト分析をさらに容易に行うために、実施例においでカメラ160は、映像を撮影することと共にオブジェクトとの距離を測定するステレオカメラであり得る。
カメラ160は、映像センサーと映像処理モジュールを直接含むことができる。この場合、カメラ160は映像センサー(例えば、CMOSまたはCCD)によって得られる静止映像または動映像を処理することができる。また、映像処理モジュールは、映像センサーを介して獲得された静止映像または動映像を加工して、必要な映像情報を抽出し、抽出された映像情報をプロセッサー170に伝達することができる。
センシング部155は、距離センサー150とカメラ160が結合されたステレオカメラであり得る。すなわち、ステレオカメラは、映像を獲得することと共にオブジェクトとの位置関係を感知することができる。
ディスプレイ部180は、アラウンドビュー映像を表示することができる。このようなディスプレイ部180は、必要に応じて少なくとも一つ以上のディスプレイ領域を含むことができる。各ディスプレイ領域に互いに異なる映像情報がディスプレイされ得る。
オーディオ出力部185は、アラウンドビューに対する説明、実行可否などを確認するメッセージをオーディオに出力することができる。これによって、アラウンドビュー提供装置100は、ディスプレイ部180を介した視覚的な表示と共にオーディオ出力部185の音響出力を介してアラウンドビュー提供装置100の機能に対する説明を互いに補完することができる。
実施例によって、アラウンドビュー提供装置100は、ヘブティック信号を出力するヘブティック出力部(図示せず)をさらに含むことができる。ヘブティック出力部(図示せず)は、アラウンドビューに対するアラームをヘブティックに出力することができる。例えば、アラウンドビュー提供装置100は、ナビゲーション情報、交通情報、通信情報、車両状態情報、運転補助機能(ADAS)情報及びその他運転者便宜情報の少なくとも一つの情報に運転者に対する警告が含まれると、これを震動でユーザに知らせることができる。
このようなヘブティック出力部(図示せず)は、方向性を有する震動を提供することができる。例えば、ヘブティック出力部(図示せず)は、操向を制御するステアリングホイールに配置されて震動を出力することができ、震動提供時、ステアリングホイールの左右を区分して震動を出力することによって、ヘブティック出力の方向性を付与することができる。
電源供給部190は、プロセッサー170の制御によって外部の電源、内部の電源が印加されて各構成要素の動作に必要な電源を供給することができる。
プロセッサー170は、アラウンドビュー提供装置100内の各構成要素の全般的な動作を制御することができる。
また、プロセッサー170は、応用プログラムを駆動するために、アラウンドビュー提供装置100に含まれた構成要素の少なくとも一部を制御するか、または少なくとも二つ以上を互いに組み合わせて動作させることができる。
このようなプロセッサー170は、ハードウェア側面において、ASICs(application specific integrated circuits)、DSPs(digital signal processors)、DSPDs(digital signal processing devices)、PLDs(programmable logic devices)、FPGAs(field programmable gate arrays)、制御機(controllers)、マイクロコントローラー(micro−controllers)、マイクロプロセッサー170(microprocessors)、その他機能遂行のための電気的ユニットの少なくとも一つの形態に実現され得る。
実施例によって、プロセッサー170は、車両のECU770によって制御され得る。
プロセッサー170は、メモリー140に保存された応用プログラムと関連した動作外にも、通常的にアラウンドビュー提供装置100の全般的な動作を制御する。プロセッサー170は、上で検討した構成要素を介して入力または出力される信号、データ、情報などを処理するか、またはメモリー140に保存された応用プログラムを駆動することによって、ユーザに適切な情報または機能を提供または処理することができる。
図2aは、実施例に係るアラウンドビュー提供装置を備える車両の外観を示した図である。
図2aを参照すれば、実施例に係る車両700は、動力源によって回転する車輪13FL、13RLと、ユーザに車両周辺のオブジェクト情報を提供するアラウンドビュー提供装置100を含む。
アラウンドビュー提供装置100は、車両700の内部に設置され得る。この場合、アラウンドビュー提供装置100の設置位置は、実施例によって多様に設定され得る。図2aを参照すれば、アラウンドビュー提供装置100は、車両700の全面窓の下端に配置される。
図2bは、実施例に係るアラウンドビュー提供装置に含まれるセンサー部が車両に配置された様子を示す。
センシング部155に含まれる距離センサー150は、車両ボディーの前後と左右及び天井の少なくとも一つの位置に配置され得る。図2bを参照すれば、車両の左側側面と右側側面にそれぞれ距離センサー150a、150bが配置される。
センシング部155に含まれるカメラ160は、走行方向の前後と左右を監視できるように多様な位置に備えられ得る。図2bを参照すれば、車両の前方、後方、左側及び右側にカメラ160a、160b、160c、160dがそれぞれ配置される。
例えば、前方に設置されるカメラ160aは第1カメラと命名され、右側に設置されるカメラ160bは第2カメラと命名され、後方に設置されるカメラ160cは第3カメラと命名され、左側に設置されるカメラ160dは第4カメラと命名され得るが、これに限定しない。複数のカメラ160a、160b、160c、160dの一番先に言及されるカメラが第1カメラと命名され、その次に言及されるカメラが第2カメラと 命名されることもある。
第1カメラ160aは、走行方向の前方を撮影して前方映像を獲得することができる。このために、第1カメラ160aは、エンブレム付近またはラジエーターグリル付近に配置され得る。
第2カメラ160bは、右側サイドミラーを取り囲むケース内に配置され得る。実施例によって、第2カメラ160bは、右側サイドミラーを取り囲むケース外部に配置されるか、または右側フロントドアや右側リアドアまたは右側フェンド(fender)外側の一領域に配置されることもある。
第3カメラ160cは、走行方向の後方を撮影して後方映像を獲得することができる。このような、第3カメラ160cは、後方番号版またはトランクスィッチ付近に配置され得る。
第4カメラ160dは、左側サイドミラーを取り囲むケース内に配置され得る。実施例によって、第4カメラ160dは、左側サイドミラーを取り囲むケース外部に配置されるか、または左側フロントドアや左側リアドアまたは左側フェンド(fender)外側の一領域に配置されることもできる。
示されなかったが、車両の天井に追加のカメラが設置されることもある。天井カメラは、車両の前後及び左右方向をすべて撮影することができる。
さらに、必要に応じて第1ないし第4カメラ160a、160b、160c、160d以外に追加のカメラがさらに設置されることもある。
図3は、実施例に係るアラウンドビュー提供装置を含む車両の構成を示したブロック図である。
実施例に係るアラウンドビュー提供装置100は、車両700内に設置され得る。
図3を参照すれば、車両700は、通信部710、入力部720、センシング部760、出力部740、車両駆動部750、メモリー730、インターフェース部780、ECU770、電源部790、アラウンドビュー提供装置100及びAVN装置400を含むことができる。
通信部710は、車両700と移動端末機600との間、車両700と外部サーバー500との間または車両700と他車両510との無線通信ができるようにする一つ以上のモジュールを含むことができる。また、通信部710は、車両700を一つ以上のネットワークに連結する一つ以上のモジュールを含むことができる。
通信部710は、放送受信モジュール711、無線インターネットモジュール712、近距離通信モジュール713、位置情報モジュール714及び光通信モジュール715を含むことができる。
放送受信モジュール711は、放送チャンネルを介して外部の放送管理サーバーから放送信号または放送関連した情報を受信する。ここで、放送は、ラジオ放送またはTV放送を含む。
無線インターネットモジュール712は、無線インターネット接続のためのモジュールを言うものであって、車両700に内蔵されるか、または外装され得る。無線インターネットモジュール712は、無線インターネット技術による通信網で無線信号を送受信するように形成される。
無線インターネット技術としては、例えば、WLAN(Wireless LAN)、Wi−Fi(Wireless−Fidelity)、Wi−Fi(Wireless Fidelity)Direct、DLNA(Digital Living Network Alliance)、WiBro(Wireless Broadband)、WiMAX(World Interoperability for Microwave Access)、HSDPA(High Speed Downlink Packet Access)、HSUPA(High Speed Uplink Packet Access)、LTE(Long Term Evolution)、LTE−A(Long Term Evolution−Advanced)などがあり、前記無線インターネットモジュール712は、上記で列挙されていないインターネット技術まで含めた範囲で少なくとも一つの無線インターネット技術によってデータを送受信することになる。例えば、無線インターネットモジュール712は、外部サーバー500と無線でデータを交換することができる。無線インターネットモジュール712は、外部サーバー500から天気情報、道路の交通状況情報(例えば、TPEG(Transport Protocol Expert Group))情報を受信することができる。
近距離通信モジュール713は、近距離通信(Short range communication)のためのものであって、ブルートゥース(BluetoothTM)、RFID(Radio Frequency Identification)、赤外線通信(Infrared Data Association;IrDA)、UWB(Ultra Wideband)、ZigBee、NFC(Near Field Communication)、Wi−Fi(Wireless−Fidelity)、wi−fi Direct、Wireless USB(Wireless Universal Serial Bus)技術の少なくとも一つを利用して、近距離通信を支援することができる。
このような、近距離通信モジュール713は、近距離無線通信網(Wireless Area Networks)を形成して、車両と少なくとも一つの外部デバイスとの間の近距離通信を行うことができる。例えば、近距離通信モジュール713は、移動端末機600と無線でデータを交換することができる。近距離通信モジュール713は、移動端末機600から天気情報、道路の交通状況情報(例えば、TPEG(Transport Protocol Expert Group))を受信することができる。例えば、ユーザが車両に乗った場合、ユーザの移動端末機600と車両は、自動的に、またはユーザのアプリケーション実行によって、互いにペアリングを行うことができる。
位置情報モジュール714は、車両の位置を獲得するためのモジュールであって、その代表的な例としては、GPS(Global Positioning System)モジュールがある。例えば、車両700は、GPSモジュールを用いて、GPS衛星から伝送する信号に基づいて車両700の位置を獲得することができる。
光通信モジュール715は、光発信部と光受信部とを含むことができる。
光発信部は光(light)信号を電気信号に変換して、情報を受信することができる。光発信部は、光を受信するためのフォトダイオード(PD、Photo Diode)を含むことができる。フォトダイオードは、光を電気信号に変換することができる。例えば、光発信部は、前方の車両に含まれた光源から放出される光を介して、前方の車両の情報を受信することができる。
光発信部は、電気信号を光信号に変換するための発光素子を少なくとも一つ以上含むことができる。ここで、発光素子は、LED(Light Emitting Diode)であることが望ましい。光発信部は、電気信号を光信号に変換して、外部に発信する。例えば、光発信部は、所定の周波数に対応する発光素子の点滅によって、光信号を外部に放出することができる。実施例によって、光発信部は、複数の発光素子アレイを含むことができる。実施例によって、光発信部は、車両に備えられたランプと一体化され得る。例えば、光発信部は、ヘッドライト、後尾灯、ブレーキランプ、方向指示灯及び車幅灯の少なくともいずれか一つであり得る。
一実施例によれば、光通信モジュール715は、光通信を介して他車両510とデータを交換することができる。
入力部720は、運転操作手段721、カメラ722、マイクロホン723、ユーザ入力部724及びモニタリング部725を含むことができる。
運転操作手段721は、車両運転のためのユーザ入力を受信する。運転操作手段721は、操向入力手段、シフト入力手段、加速入力手段、ブレーキ入力手段などを含むことができる。
操向入力手段は、車両700の進行方向に対する入力を受信する。操向入力手段は、回転によって操向入力ができるようにホイール形状に形成されることが望ましい。実施例によって、操向入力手段は、タッチスクリーン、タッチパッドまたはボタンに形成されることもある。
シフト入力手段は、車両の駐車(P)、前進(D)、中立(N)及び後進(R)に対する入力を受信する。シフト入力手段は、レバー形状に形成されることが望ましい。実施例によって、シフト入力手段は、タッチスクリーンやタッチパッドまたはボタンに形成され得る。
加速入力手段は、車両の加速のための入力を受信する。ブレーキ入力手段は、車両の減速のための入力を受信する。この場合、加速入力手段及びブレーキ入力手段は、ペダル形状に形成されることが望ましい。実施例によって、加速入力手段またはブレーキ入力手段は、タッチスクリーン、タッチパッドまたはボタンに形成され得る。
カメラ722は、イメージセンサーと映像処理モジュールを含むことができる。カメラ722は、イメージセンサー(例えば、CMOSまたはCCD)によって得られる静止映像または動映像を処理することができる。映像処理モジュールは、イメージセンサーを介して獲得された静止映像または動映像を加工して必要な情報を抽出し、抽出された情報をECU770に伝達することができる。一方、車両700は、車両の前方映像または車両の周辺映像を撮影するカメラ722及び車両の内部映像を撮影するモニタリング部725を含むことができる。
モニタリング部725は、搭乗者に対するイメージを獲得することができる。モニタリング部725は、搭乗者の生体認識のためのイメージを獲得することができる。
一方、図3ではモニタリング部725とカメラ722が入力部720に含まれることと示したが、カメラ722は、前述したようにアラウンドビュー提供装置100に含まれることもある。
マイクロホン723は、外部の音響信号を電気的なデータに処理することができる。処理されたデータは、車両700で遂行中の機能によって多様に活用され得る。マイクロホン723は、ユーザの音声命令を電気的データに変換することができる。変換された電気的データは、ECU770に伝達することができる。
ユーザ入力部724は、ユーザから情報の入力を受けることができる。ユーザ入力部724を介して情報が入力されると、ECU770は、入力された情報に対応するように車両700の動作を制御することができる。ユーザ入力部724は、タッチ式入力手段または機械式入力手段を含むことができる。実施例によって、ユーザ入力部724は、ステアリングホイールの一領域に配置され得る。この場合、運転者はステアリングホイールを握った状態で、指でユーザ入力部724を操作することができる。
センシング部760は、車両の走行などと関連した信号をセンシングする。このために、センシング部760は、衝突センサー、ホイールセンサー(wheel sensor)、速度センサー、傾斜センサー、重量感知センサー、ヘディングセンサー(heading sensor)、ヨーセンサー(yaw sensor)、ジャイロセンサー(gyro sensor)、ポジションモジュール(position module)、車両前進/後進センサー、バッテリーセンサー、燃料センサー、タイヤセンサー、ハンドル回転によるステアリングセンサー、車両内部温度センサー、車両内部湿度センサー、超音波センサー、レーダー、ライダーなどを含むことができる。
これによって、センシング部760は、車両衝突情報、車両方向情報、車両位置情報GPS情報、車両角度情報、車両速度情報、車両加速度情報、車両勾配情報、車両前進/後進情報、バッテリー情報、燃料情報、タイヤ情報、車両ランプ情報、車両内部温度情報、車両内部湿度情報、ステアリングホイール回転角度などに対するセンシング信号を獲得することができる。
一方、センシング部760は、その外にも加速ペダルセンサー、圧力センサー、エンジン回転の速度センサー(engine speed sensor)、空気流量センサー(AFS)、吸気温度センサー(ATS)、水温センサー(WTS)、スロットル位置センサー(TPS)、TDCセンサー、クランク角センサー(CAS)などをさらに含むことができる。
センシング部760は、生体認識情報感知部を含むことができる。生体認識情報感知部は、搭乗者の生体認識情報を感知して獲得する。生体認識情報は、指紋認識(Fingerprint)情報、虹彩認識(Iris−scan)情報、 網膜認識(Retina−scan)情報、掌形(Hand geometry)情報 、顔面認識(Facial recognition)情報、音声認識(Voice recognition)情報を含むことができる。生体認識情報感知部は、搭乗者の生体認識情報をセンシングするセンサーを含むことができる。ここで、モニタリング部725及びマイクロフォン723がセンサーとして動作することができる。生体認識情報感知部は、モニタリング部725を介して、掌形情報、顔面認識情報を獲得することができる。
出力部740は、ECU770で処理された情報を出力するための構成要素であって、ディスプレイ部741、音響出力部742及びヘブティック出力部743を含むことができる。
ディスプレイ部741は、ECU770で処理される情報を表示することができる。例えば、ディスプレイ部741は、車両関連情報を表示することができる。ここで、車両関連情報は、車両に対する直接的な制御のための車両制御情報、または車両の運転者に運転をガイドするための車両運転補助情報を含むことができる。また、車両関連情報は、現在車両の状態を知らせる車両状態情報または車両の運行と関連した車両運行情報を含むことができる。
ディスプレイ部741は、アラウンドビュー提供装置100のディスプレイ部180であり得、別個に備えられることもある。
ディスプレイ部741は、液晶ディスプレイ(liquid crystal display、LCD)、薄膜トランジスター液晶ディスプレイ(thin film transistor−liquid crystal display、TFT LCD)、有機発狂ダイオード(organic light−emitting diode、OLED)、フレキシブルディスプレイ(flexible display、3次元ディスプレイ(3D display)、電子インクディスプレイ(e−ink display)の少なくとも一つによって実現され得る。
ディスプレイ部741は、タッチセンサーと互いにレイヤー構造を形成するか、または一体型に形成されることによってタッチスクリーンを実現することができる。このようなタッチスクリーンは、車両700とユーザとの間の入力インターフェースを提供するユーザ入力部724として機能することと共に、車両700とユーザとの間の出力インターフェースを提供することができる。この場合、ディスプレイ部741は、タッチ方式によって制御命令の入力を受けることができるように、ディスプレイ部741に対するタッチを感知するタッチセンサーを含むことができる。これを用いて、ディスプレイ部741に対してタッチが行われると、タッチセンサーは前記タッチを感知し、ECU770は、これに基づいて前記タッチに対応する制御命令を発生させるように構成され得る。タッチ方式によって入力される内容は、文字または数字であるか、各種モードでの指示または指定可能なメニュー項目などであり得る。
一方、ディスプレイ部741は、運転者が運転をすることと同時に車両状態情報または車両運行情報を確認するようにクラスタ(cluster)を含むことができる。クラスタは、ダッシュボード(dashboard)上に位置することができる。この場合、運転者は、視線を車両の前方に維持したままクラスタに表示される情報を確認することができる。
一方、実施例によって、ディスプレイ部741は、HUD(Head−Up Display)に実現され得る。ディスプレイ部741がHUDに実現される場合、ウインドシールドに備えられる透明ディスプレイを介して情報を出力することができる。または、ディスプレイ部741は、投射モジュールを備えてウインドシールドに投射されるイメージを介して情報を出力することができる。
音響出力部742は、ECU770からの電気信号をオーディオ信号に変換して出力する。このために、音響出力部742は、スピーカーなどを備えることができる。音響出力部742は、ユーザ入力部724によって入力された動作に対応するサウンドを出力することもできる。
ヘブティック出力部743は、触覚的な出力を発生させる。例えば、ヘブティック出力部743は、ステアリングホイール、シートベルト、シートを震動させて、ユーザが出力を認知できるように動作することができる。
車両駆動部750は、車両700に含まれる各種装置及び構成要素の動作を制御することができる。車両駆動部750は、動力源駆動部751、操向駆動部752、ブレーキ駆動部753、ランプ駆動部754、空調駆動部755、ウィンドウ駆動部756、エアバッグ駆動部757、サンルーフ駆動部758及びサスペンション駆動部759を含むことができる。
動力源駆動部751は、車両700内の動力源に対する電子式制御を行うことができる。
例えば、化石燃料基盤のエンジン(図示せず)が動力源の場合、動力源駆動部751は、エンジンに対する電子式制御を行うことができる。これによって、エンジンの出力トークなどを制御することができる。動力源駆動部751がエンジンの場合、ECU770の制御によって、エンジン出力トークを制限して車両の速度を制限することができる。
他の例として、電気基盤のモーター(図示せず)が動力源の場合、動力源駆動部751は、モーターに対する制御を行うことができる。これによって、モーターの回転速度、トークなどを制御することができる。
操向駆動部752は、車両内の操向装置(steering apparatus)に対する電子式制御を行うことができる。これによって、車両の進行方向を変更することができる。
ブレーキ駆動部753は、車内のブレーキ装置(brake apparatus)(図示せず)に対する電子式制御を行うことができる。例えば、車輪に配置されるブレーキの動作を制御して、車両の速度を減らすことができる。他の例として、左側の車輪と右側の車輪にそれぞれ配置されるブレーキの動作を異にして、車両の進行方向を左側、または右側に調整することができる。
ランプ駆動部754は、車両内部及び外部に配置されるランプのターンオン/ターンオフを制御することができる。また、ランプの光の強さ、方向などを制御することができる。例えば、方向指示ランプ、ブレーキランプなどに対する制御を行うことができる。
空調駆動部755は、車内の空調装置(air conditioner)(図示せず)に対する電子式制御を行うことができる。例えば、車両内部の温度が高い場合、空調装置を動作させて冷気が車両700内部に供給されるように制御することができる。
ウィンドウ駆動部756は、車内のウィンドウ装置(window apparatus)に対する電子式制御を行うことができる。例えば、車両700の側面の左側及び右側ウィンドウに対する開放または閉鎖を制御することができる。
エアバッグ駆動部757は、車内のエアバッグ装置(airbag apparatus)に対する電子式制御を行うことができる。例えば、事故危険のとき、エアバッグが裂けるように制御することができる。
サンルーフ駆動部758は、車内のサンルーフ装置(図示せず)に対する電子式制御を行うことができる。例えば、サンルーフの開放または閉鎖を制御することができる。
サスペンション駆動部759は、車両700内のサスペンション装置(図示せず)に対する電子式制御を行うことができる。例えば、道路面に屈曲がある場合、サスペンション装置を制御して、車両の震動が低減されるように制御することができる。
メモリー730は、ECU770と電気的に連結される。メモリー730は、ユニットに対する基本データ、ユニットの動作制御のための制御データ、入出力されるデータを保存することができる。メモリー730は、ハードウェア的に、ROM、RAM、EPROM、フラッシュドライブ、ハードドライブなどのような多様な保存媒体であり得る。メモリー730は、ECU770の処理または制御のためのプログラムなど、車両全般の動作のための多様なデータを保存することができる。
インターフェース部780は、車両700に連結される多様な種類の外部器機との通路の役割を行うことができる。例えば、インターフェース部780は、移動端末機600と連結可能なポートを備えることができ、前記ポートを介して移動端末機600と連結され得る。この場合、インターフェース部780は移動端末機600とデータを交換することができる。
一方、インターフェース部780は、連結された移動端末機600に電気エネルギーを供給する通路の役割を行うことができる。移動端末機600がインターフェース部780に電気的に連結される場合、ECU770の制御によってインターフェース部780は、電源部790から供給される電気エネルギーを移動端末機600に提供する。
ECU770は、車両700内の各構成要素の全般的な動作を制御することができる。ECU770は、ECU(Electronic Control Unit)と命名され得る。
このようなECU770は、アラウンドビュー提供装置100の実行信号伝達によって、伝達した信号に対応する機能を行うことができる。
ECU770は、ハードウェア的にASICs(application specific integrated circuits)、DSPs(digital signal processors)、DSPDs(digital signal processing devices)、PLDs(programmable logic devices)、FPGAs(field programmable gate arrays)、プロセッサー(processors)、制御機(controllers)、マイクロコントローラー(micro−controllers)、マイクロプロセッサー(microprocessors)、その他機能の遂行のための電気的ユニットの少なくとも一つの形態に実現され得る。
このときの制御機やマイクロプロセッサーは、アラウンドビュー提供装置100に含まれるプロセッサー170とは別の装置であり得る。
電源部790は、ECU770の制御によって、各構成要素の動作に必要な電源を供給することができる。この場合、電源部790は、車両内部のバッテリー(図示せず) などから電源を供給受けることができる。
AVN(Audio Video Navigation)装置400は、ECU770とデータを交換することができる。ECU770は、AVN装置400または別途のナビゲーション装置(図示せず)からナビゲーション情報を受信することができる。ここで、ナビゲーション情報は、設定された目的地情報、前記目的地による経路情報、車両の走行と関連したマップ情報または車両位置情報などを含むことができる。
図4は、アラウンドビュー映像を示す。
図4を参照すれば、アラウンドビュー映像は、第1ないし第4合成領域301、303、305、307を含むことができる。このようなアラウンドビュー映像は、ディスプレイ部180上にディスプレイされ得る。第1ないし第4合成領域301、303、305、307は、第1ないし第4領域と指称されることもある。
第1合成領域301は、車両700の前方に設置される第1カメラによって獲得された前方映像をもとに生成され得る。第2合成領域303は、車両700の右側に設置される第2カメラによって獲得された右側映像をもとに生成され得る。第3合成領域305は、車両700の後方に設置される第3カメラによって獲得された後方映像をもとに生成され得る。第4合成領域307は、車両700の左側に設置される第4カメラによって獲得された左側映像をもとに生成され得る。
各合成領域301、303、305、307の映像は、第1ないし第4カメラ160a、160b、160c、160dから獲得された映像と互いに異なることがある。
すなわち、第1ないし第4カメラ160a、160b、160c、160dから獲得された映像は、各カメラ160a、160b、160c、160dのレンズを介して入射した映像であって、オブジェクトの実際の様子がそのまま映像に表示され得る。これに対し、各合成領域301、303、305、307の映像は、第1ないし第4カメラ160a、160b、160c、160dから獲得された映像の前方視点をトップビュー視点に変更した映像であり得る。
例えば、第1ないし第4カメラ160a、160b、160c、160dのうち特定カメラから獲得された映像のオブジェクトが立っている人の場合、その獲得された映像から生成された合成領域でのオブジェクトである人は、立っていない、まるで横になっていることのように見えられる。
第1ないし第4合成領域301、303、305、307は、境界線311、313、315、317を中心に互いに隣接して配置され得る。例えば、第1合成領域301と第2合成領域303は、第1境界線311を中心に互いに隣接して配置され得る。第2合成領域303と第3合成領域305は、第2境界線313を中心に互いに隣接して配置され得る。第3合成領域305と第4合成領域307は、第3境界線315を中心に互いに隣接して配置され得る。第4合成領域307と第1合成領域301は、第4境界線317を中心に互いに隣接して配置され得る。
アラウンドビュー映像は、メモリー140に保存されている合成情報をもとに生成され得る。上述したように、合成情報は、第1ないし第4カメラ160a、160b、160c、160dからの映像それぞれから生成された第1ないし第4合成領域の範囲情報と第1ないし第4合成情報との間の境界線に関する境界線情報が合成情報おしてメモリー140に保存され得る。
境界線情報は、第1ないし第4境界線311、313、315、317の位置に設定され得る。合成領域の範囲情報は、各合成領域301、303、305、307の範囲に設定され得る。
したがって、プロセッサー170は、合成情報の範囲情報と境界線情報をもとに第1ないし第4カメラ160a、160b、160c、160dから獲得された映像から各合成領域301、303、305、307を生成し、各合成領域301、303、305、307を合成してアラウンドビュー映像を生成することができる。
このように生成されたアラウンドビュー映像は、ノーマルモード(normal mode)のときにそのままディスプレイ部180上にディスプレイされ得る。
具体的に、プロセッサー170は、境界線情報に設定されている合成領域の範囲情報及び境界線情報をもとに第1ないし第4カメラ160a、160b、160c、160dから獲得された映像から各境界線311、313、315、317の間に該当する映像を抽出してこの抽出された映像をもとに第1ないし第4合成領域を含むアラウンドビュー映像を生成することができる。
前述したように、第1ないし第4カメラ160a、160b、160c、160dから獲得された映像とその映像から第1ないし第4合成領域は互いに異なる。
図5aは、第1及び第3カメラそれぞれから獲得された映像を示し、図5bは、第1及び第3カメラそれぞれから獲得された映像をもとに生成された第1及び第3合成領域を示す。
第1及び第3カメラ160a、160cそれぞれから獲得された第1及び第3映像321、325(図5a)のサイズがそのまま第1及び第3合成領域301、305それぞれのサイズに生成され得る(図5b)。
第1合成領域301の両端に第1境界線311及び第4境界線317が配置され得る。言い換えれば、第1合成領域301は、第1及び第4境界線311、317の間に配置され得る。
第3合成領域305の両端に第2境界線313及び第3境界線315が配置され得る。言い換えれば、第3合成領域305は、第2及び第3境界線313、315の間に配置され得る。
これとは異なり、第1及び第3カメラ160a、160cそれぞれから獲得された映像のうち一部領域に該当する第1及び第3映像をもとに第1及び第3合成領域301、305が生成されることもある。このような場合、第1及び第3合成領域301、305それぞれのサイズは、第1及び第3映像のサイズより小さいことがある。
図6aは、第2及び第4カメラそれぞれから獲得された映像を示し、図6bは、第2及び第4カメラそれぞれから獲得された第2及び第4映像をもとに生成された第2及び第4合成領域を示す。
第2及び第4カメラ160b、160dそれぞれから獲得された第2及び第4映像323、327(図6a)のうち一部領域335、337をもとに第2及び第4合成領域303、307が生成され得る(図6b)。このような場合、第2及び第4合成領域303、307それぞれのサイズは、第2及び第4映像323、327のサイズより小さいことがある。
第2合成領域303の両端に第1境界線311及び第2境界線313が配置され得る。言い換えれば、第2合成領域303は、第1及び第2境界線311、313の間に配置され得る。
このような場合、第1境界線311は、第1合成領域301の一端に配置される第1境界線311と同一位置を有し、第2境界線313は、第3合成領域305の一端に配置される第2境界線313と同一位置を有することができる。
第4合成領域307の両端に第3境界線315及び第4境界線317が配置され得る、言い換えれば、第4合成領域307は、第3及び第4境界線315、317の間に配置され得る。
第3境界線315は、第3合成領域305の他端に配置される第3境界線315と同一位置を有し、第4境界線317は第1合成領域301の他端に配置される第4境界線317と同一位置を有することができる。
これによって、第1境界線311を基準に第1合成領域301と第2合成領域303が互いに隣接して配置され、第2境界線313を基準に第2合成領域303と第3合成領域305が互いに隣接して配置され得る。
また、第3境界線315を基準に第3合成領域305と第4合成領域307が互いに隣接して配置され、第4境界線317を基準に第4合成領域307と第1合成領域301が互いに隣接して配置され得る。
一方、重畳領域331a、331b、333a、333bが備えられる。重畳領域331a、331b、333a、333bは、隣接する合成領域のうち一つの合成領域に含まれ得る。重畳領域331a、331b、333a、333bは、被写体の重畳領域であって、隣接するカメラの被写体から獲得された隣接する映像のうち重畳される領域を意味することができる。
例えば、第1重畳領域331aが第1合成領域301に含まれ得る。第2合成領域303が拡大されるように変更される場合、第1重畳領域331aは、第2合成領域303に含まれ得る。
このように、第1重畳領域331aは、状況によって第1合成領域301または第2合成領域303に含まれ得る。
例えば、第1重畳領域331aが第2合成領域303に含まれる場合、第2合成領域303が拡大されるので、このように拡大された第2合成領域303上に位置するオブジェクトは、消えないようになって運転者は当該オブジェクトの動きを容易に認知することができる。
第1実施例
図7は、実施例に係るアラウンドビュー提供装置のプロセッサーの構成を示したブロック図である。
図7を参照すれば、実施例に係るアラウンドビュー提供装置100のプロセッサー170は、映像獲得部350、オブジェクト追跡部355、アラウンドビュー生成部360及びアラウンドビュー変調部365を含むことができる。
映像獲得部350は、第1ないし第4カメラ160a、160b、160c、160dから撮影された第1ないし第4映像321、323、325、327からデジタル映像を獲得することができる。
もし、第1ないし第4カメラ160a、160b、160c、160dにデジタル映像を獲得する手段が備えられる場合、前記映像獲得部350は省略され得る。
映像獲得部350から獲得された第1ないし第4映像321、323、325、327は、オブジェクト追跡部355及びアラウンドビュー生成部360として提供され得る。
オブジェクト追跡部355は、映像獲得部350から獲得された第1ないし第4映像321、323、325、327からオブジェクトを抽出することができる。
オブジェクトは、動く生物体と動かない無生物体すべてを含むことができる。
一例として、次のようにオブジェクトが抽出され得るが、これに限定しない。
先に、映像獲得部350から獲得された第1ないし第4映像321、323、325、327に含まれた歪曲が補正され、補正された第1ないし第4映像321、323、325、327からエッジ検出アルゴリズムを用いてオブジェクトの特徴が得られ、このようなオブジェクトの特徴をもとにオブジェクトが抽出され得る。
他の例として、ディスパリティー(disparity)情報に基づいて各映像321、323、325、327 内のセグメント(segment)過程が行われて、背景(background)及び前景(foreground)が分離されたセグメント情報が生成され得る。続いて、セグメント情報をもとにオブジェクトが抽出され得る。
オブジェクト追跡部355は、オブジェクト抽出だけではなく、その抽出されたオブジェクトの動きを追跡(tracking)できる。リアルタイムに撮影される第1ないし第4映像321、323、325、327は、複数のフレーム(frame)で構成され得る。このような動きの追跡は、例えば、各フレームでオブジェクトが抽出される場合、各フレームの間のオブジェクトの変化が追跡されて当該オブジェクトの動きが検出され得る。
このようなオブジェクトの動き追跡を介して当該オブジェクトの移動経路と移動方向が把握され得る。
これによって、オブジェクト追跡部355は、オブジェクトの動きと関連したオブジェクト情報を生成することができる。オブジェクト情報は、オブジェクトの位置、オブジェクトの動きの方向、オブジェクトの動きの経路などを含むことができる。
一方、アラウンドビュー生成部360は、映像獲得部350から獲得された第1ないし第4映像321、323、325、327をもとに第1ないし第4合成領域301、303、305、307を含むアラウンドビュー映像を生成することができる。第1ないし第4映像321、323、325、327は、第1ないし第4カメラ160a、160b、160c、160dから獲得された映像であり得る。
このために、アラウンドビュー生成部360は、メモリー140にアクセス(access)してメモリー140に保存された合成情報を読むことができる。
アラウンドビュー生成部360は、合成情報をもとに第1ないし第4映像321、323、325、327から第1ないし第4合成領域301、303、305、307を生成し、第1ないし第4境界線311、313、315、317を基準互いに隣接するように第1ないし第4合成領域301、303、305、307を合成してアラウンドビュー映像を生成することができる。
アラウンドビュー変調部365は、オブジェクト追跡部355から受信されたオブジェクト情報及び距離情報をもとにアラウンドビュー生成部360で生成されたアラウンドビュー映像を変調することができる。
オブジェクト情報は、オブジェクトの位置、オブジェクトの動きの方向、オブジェクトの動きの経路などを含むことができる。
図8を参照して、アラウンドビュー変造方法を詳しく説明する。
アラウンドビュー変調部365は、オブジェクト追跡部355から生成されたオブジェクト情報をもとにオブジェクトの動きを把握することができる。
アラウンドビュー変調部365は、オブジェクト情報をもとにオブジェクトが車両700のどの方向に接近して通るのか予測することができる。一方では、車両700が運行中の場合、車両700のどの側面にオブジェクトを通るかも予測され得る。
このような予測を通じて、図8aないし図8dに示したように、オブジェクト、例えば、バイクが車両700の右側に沿って通ると予測され得る。
アラウンドビュー変調部365は、車両700の右側にオブジェクトが通ると予測される場合、当該オブジェクトが車両700にどの程度近接したのか確認することができる。
すなわち、アラウンドビュー変調部365は、例えば、距離センサー150から入力される距離情報をもとに当該オブジェクトがどの程度近接したのかを確認することができる。
距離センサー150の代りに、第1ないし第4カメラ160a、160b、160c、160dから獲得された第1ないし第4映像321、323、325、327から直接オブジェクトと車両700との間の距離が算出されることもあるが、これに限定しない。
アラウンドビュー変調部365は、当該オブジェクトが既に設定された距離以内に近接される場合、アラウンドビュー生成部360から入力されたアラウンドビュー映像を変調することができる。
当該オブジェクトが既に設定された距離以内に近接される場合、アラウンドビュー変調部365は、変更モードで動作することができる。
具体的に、図8aに示したように、当該オブジェクトが既に設定された距離以内に近接されて車両700の左側に通ると予測される場合、アラウンドビュー映像で第1境界線311と第2境界線313がそれぞれ第1合成領域301及び第3合成領域305内の位置に変更され得る。
これによって、図8bに示したように、第1境界線311の代りに第1合成領域301 内の第1位置にまた他の境界線、即第1変更境界線341が設定され、第2境界線313の代りに第2合成領域303内の第2位置にまた他の境界線、即第2変更境界線343が設定され得る。このように新たに設定された第1及び第2境界線311、313によって第2合成領域303のサイズが拡大される代わりに第1合成領域301及び第3合成領域305それぞれのサイズは、縮小され得る。
第1境界線311を基準に互いに隣接して配置される第1及び第2合成領域301、303は、新たに変更された第1変更境界線341を基準に互いに隣接して配置され得る。
同様に、第2境界線313を基準に互いに隣接して配置される第2及び第3合成領域303、305は、新たに変更された第2変更境界線343を基準に互いに隣接して配置され得る。
このような場合、第1境界線311と第1変更境界線341との間の領域は、第1合成領域301の一部になるか、または第2合成領域303の一部になり得る第1重畳領域345であり得る。
また、第2境界線313と第2変更境界線343との間の領域は、第2合成領域303の一部になるか、または第3合成領域305の一部になり得る第2重畳領域347であり得る。
第1変更境界線341及び第2変更境界線343は、第2カメラ160bの最大広角に該当する映像の両端と一致することができるが、これに限定しない。
したがって、第2合成領域303が第1重畳領域345と第2重畳領域347に拡大されても、第2合成領域303、第1及び第2重畳領域345、347すべて第2カメラ160bから獲得された第2映像323から生成されたことなので、視点(viewpoint)の連続性を維持するため、第2合成領域303と第1及び第2重畳領域345、347に含まれるオブジェクトは、重畳されたり消えないように連続性を有して優れた画質を維持することができる。
特に、第1境界線311と第2境界線313がオブジェクトが通らない他の領域に変更されることによって、従来に第1境界線及び第2境界線にオブジェクトが通るとき、当該オブジェクトが重畳されたり消える問題が解消され得る。
図8bでは第2合成領域303が第1及び第2重畳領域345、347に同時に拡大されるようにアラウンドビュー映像が変調されることが示されているが、実施例はこれに限定しない。
例えば、バイクが車両700から一定の距離以内に接近される場合、第2合成領域303が第1重畳領域345を含むように拡大され、バイクが車両700の左側に進入するとき、合成領域が第2重畳領域347を含むように拡大され得る。第2合成領域303が第1重畳領域345と第2重畳領域347を順に含まれるように拡大され得る。
図8bに示したように、アラウンドビュー映像が変調される場合、図8cに示したようにバイクが車両700の右側に通る間、バイクがアラウンドビュー映像から消えたり、重畳されなくなる。
一方、アラウンドビュー変調部365は、図8dに示したようにバイクが車両700の右側を介して車両700の後方に完全に通った場合、元のアラウンドビュー映像に復元させることができるが、これに限定しない。
具体的に、第1及び第2変更境界線341、343は、再び第1及び第2境界線311、313に再設定され、このように再設定された第1及び第2境界線311、313を基準に第1ないし第3合成領域301、303、305が生成されて第4合成領域307と共に元のアラウンドビュー映像に復元され得る。
第2実施例
第2実施例のプロセッサー170の構成は、図7と同一である。
但し、第2実施例ではアラウンドビュー変造方法が第1実施例と互いに異なる。
すなわち、第1実施例ではオブジェクトが車両700から一定の距離以内に近接する場合、オブジェクトが通る方向に位置した特定の合成領域のサイズをその特定の合成領域の両側に位置した重畳領域を含むように拡大することができる。これによって、当該オブジェクトが等しいカメラから得られた前記重畳領域を含む特定の合成領域上で通るようにすることができる。
これに対し、第2実施例はオブジェクトが車から一定の距離以内に近接する場合、オブジェクトが通る方向に位置した特定の合成領域のサイズをその特定の合成領域の両側に位置した重畳領域を含むように拡大するが、その重畳領域は、特定の合成領域と隣接合成領域それぞれの加重値をもとに特定の合成領域から隣接合成領域に漸進的にまたは順に変更され得る。
言い換えれば、一定の時間の間、前記第1合成領域の映像から前記第2合成領域の映像に前記重畳領域の全体領域単位ごとに変更され得る。例えば、一定の時間内に第1ないし第3時間t1、t2、t3単位に区分されると仮定する。このような場合、第1時間t1に重畳領域の全体領域が一定の時間内で前記第1合成領域の映像から前記第2合成領域の映像に変更され、第2時間t2に重畳領域の全体領域が一定の時間内で前記第1合成領域の映像から前記第2合成領域の映像に変更され、第3時間t3に重畳領域の全体領域が一定の時間内で前記第1合成領域の映像から前記第2合成領域の映像に変更され得る。
以下、第2実施例を具体的に説明する。
加重値マップには時間による各合成領域301、303、305、307と重畳領域での加重値が設定され得る。
このような加重値をもとに算出されるアラウンドビュー変造映像(Iout(x、y))は、数学式1のように表され得る。
[数1]
Figure 2020516100
x、yは映像の座標であり、I_frとI_rgはそれぞれ第1及び第2合成領域301、303の映像であり、α(x、y)は平均加重値であり得る。
このとき、平均加重値は、数学式2のように表され得る。
[数2]
Figure 2020516100
α1(x、y)は第1合成領域301の加重値であり、α2(x、y)は第2合成領域303の加重値であり、tは時間であり得る。
平均加重値は、第1合成領域301の加重値と第2合成領域303の加重値の合であり、時間が考慮され得る。
例えば、tが0.1秒単位に可変されると仮定すれば、毎0.1秒単位で数学式2による加重値が算出され、このように算出された加重値を数学式1に代入することによって、隣接する合成領域とその間に位置した重畳領域でのアラウンドビュー変造映像が算出され得る。
図5aないし図5eの下端に示したように、初めには重畳領域345が第1カメラ160aによって生成された第1合成領域301の映像に生成されるが、時間の経過に応じて漸次的に第1合成領域301の映像よりは第2カメラ160bによって生成された第2合成領域303の映像に重畳領域345が生成され、終わりには重畳領域345が完全に第2合成領域303の映像に生成され得る。
第2実施例は、第1実施例と違い、隣接する合成領域の間の重畳領域345が第1合成領域301の映像から第2合成領域303の映像に順に変更されるようにすることによって、映像のスムーズな転換を介して映像の急な変更による目障りのような不便を解消することができる。
第3実施例
第3実施例は、第1及び第2実施例とは異なり、例えば、少なくとも二つ以上の境界線付近にオブジェクトが接近するときの画面構成に関するものである。
図9は、他の実施例に係るプロセッサーの構成を示したブロック図である。
図9において、映像獲得部350、オブジェクト追跡部355、アラウンドビュー生成部360及びアラウンドビュー変調部365は、図7に同一の構成要素が示されており、このような構成要素については既に説明されたことがあるので、これ以上の説明は略する。
画面生成部370は、アラウンドビュー変調部365から入力されたアラウンドビュー変造映像がディスプレイ部180上にディスプレイされるように画面を構成することができる。
さらに、画面生成部370は、オブジェクト追跡部355から入力されたオブジェクトの動きの情報をもとにアラウンドビュー変造映像で特定の合成領域が拡大されて境界線が変更され、その変更された境界線の位置にまた他のオブジェクトが位置して消えるようになる場合、また他のオブジェクトの動きを明確に把握するためにまた他のオブジェクトが位置した部分を撮影するカメラから獲得された映像を別途の画面を介してディスプレイされるようにすることができる。
図10aに示したように、第1画面371上に第1ないし第4合成領域301、303、305、307を含むアラウンドビュー映像がディスプレイされ得る。アラウンドビュー映像は、第1画面371の全体領域にディスプレイされ得るが、これに限定しない。
このようにディスプレイ部180上にアラウンドビュー映像を含む第1画面371がディスプレイされる途中に、第1オブジェクト、例えば人が車両の前方から車両に接近して車両の右側に通る一方、第2オブジェクト、例えば自転車が車両の前方左側から右側に通る状況が発生し得る。
このような場合、図10bに示したように、第1オブジェクトが車両の右側に通ることと予測される場合、プロセッサー170は、第2合成領域303が第1合成領域301に含まれた第1重畳領域345と第3合成領域305に含まれた第2重畳領域347とを含むように変更させたアラウンドビュー変造映像を生成することができる。このようなアラウンドビュー変造映像は、第1画面371に含まれ得る。
したがって、新たに変更された第2合成領域303のサイズは、第2合成領域303だけでなく第1重畳領域345及び第2重畳領域347をさらに含むことができ、このような第2合成領域303、第1及び第2重畳領域345、347は、第2カメラ160bによって獲得された第2映像323から生成され得る。詳しいことは第1実施例及び第2実施例から容易に理解され得る。
したがって、新たに変更された第2合成領域303によって車両の右側が完全にカバーされるので、図10cに示したように、車両の右側に第1オブジェクトが通っても重畳や消えることが発生しない。
しかし、第2オブジェクトは、第1車両の前方を経由して新たに変更された第2合成領域303と第1合成領域301の境界線361を通るようになり、その境界線361で第2オブジェクトは消えることがある。
このように、境界線361にオブジェクトが位置して当該境界線361を変更することができない状況が発生する場合、画面生成部370は、画面を少なくとも一つ以上の画面に分割することができる。
すなわち、画面生成部370は、図10dに示したように、画面を第1及び第2画面371、373に分割し、第1画面371は、アラウンドビュー変造映像を含むようにし、第2画面373は、前方カメラ、即第1カメラ160aから獲得された第1映像321が含まれるようにすることができる。
第1カメラ160aから獲得された第1映像321は、アラウンドビュー変造映像の第1合成領域301だけでなく第1重畳領域345をカバーすることができる。
したがって、第1カメラ160aから獲得された第1映像321が第2画面373を介してディスプレイされる場合、第2オブジェクトがアラウンドビュー変造映像の境界線361に位置してアラウンドビュー変造映像では消えても第1カメラ160aから獲得された第1映像321によって第2オブジェクトの動きが第2画面を介してディスプレイされ得る。これによって、運転者は、第1オブジェクトの動きは、第1画面371を介してディスプレイされるアラウンドビュー変造映像から認知し、第2オブジェクトの動きは、第2画面373を介してディスプレイされる第1カメラ160aから獲得された第1映像321から認知することができる。
もし、追加的にアラウンド変造映像の他の境界線にまた他のオブジェクトが位置して消える場合、その部分をカバーするカメラから獲得された映像がディスプレイされるように第3画面(図示せず)がさらに追加され得る。
一方、図10dに示したように、特定の部分を強調するためにオーバレイ(overlay)領域375、377がディスプレイされ得る。オーバレイ領域375、377は、既存の映像に重ね当てられる形態にディスプレイされ得るが、これに限定しない。
例えば、第1画面371でアラウンドビュー変造映像の境界線361を含んだ第1重畳領域345に第1オーバレイ領域375がディスプレイされ、第1カメラ160aから獲得された第1映像321を含む第2画面373の枠に沿って第2オーバレイ領域377がディスプレイされ得る。
このようなオーバレイ領域375、377を介して運転者の関心を誘導してさらに 積極的に事故に対処するようにすることができる。
実施例は、少なくとも二つ以上のオブジェクトが車両に接近するが、一つのオブジェクトの動きは、特定の合成領域の変更を介して完全に把握することができるが、他のオブジェクトは、特定の合成領域の変更が不可能で境界線361に位置する状況が発生する場合、境界線361に位置するオブジェクトの動きを別に把握するように当該境界線361の付近を撮影することができるカメラ160a、160b、160c、160dから獲得された映像がディスプレイされるようにすることによって、少なくとも二つ以上のオブジェクトが車両に接近しても、これらの少なくとも二つ以上のオブジェクトの動きをすべて容易に把握することができる。
第4実施例
第4実施例は、アラウンドビュー映像の合成領域が変更されたとき、その変更されることを運転者が分かるようにする。
図11は、また他の実施例に係るプロセッサーの構成を示したブロック図である。
図11で画面生成部372を除いた残りの構成要素は、図7と同一である。したがって、画面生成部372を中心に説明するようにする。
画面生成部372は、アラウンドビュー変調部365から入力されたアラウンドビュー変造映像をもとにアラウンドビュー変造映像の合成領域が変更されることを識別することができる識別バー(bar)を含む画面を生成することができる。
図12aに示したように、ノーマルモードの時第1ないし第4合成領域301、303、305、307を含むアラウンドビュー映像が画面上にディスプレイされ得る。このとき、アラウンドビュー映像は識別バー384、385、386、387及び車両形象とともにディスプレイされ得る。識別バー384、385、386、387は、車両形象の周辺に配置され得るが、これに限定しない。
識別バーは、複数の識別バー384、385、386、387を含むことができる。複数の識別バー384、385、386、387は、アラウンドビュー変造映像に含まれた第1ないし第4合成領域301、303、305、307の個数だけ備えられ得る。
第1識別バー384は、アラウンドビュー映像の第1合成領域301のサイズに対応するサイズを有することができる。第2識別バー385は、アラウンドビュー映像の第2合成領域303のサイズに対応するサイズを有することができる。第3識別バー386は、アラウンドビュー映像の第3合成領域305のサイズに対応するサイズを有することができる。第4識別バー387は、アラウンドビュー映像の第4合成領域307のサイズに対応するサイズを有することができる。
図12bに示したようにオブジェクトの接近によってアラウンドビュー映像が変調されてアラウンドビュー変造映像に生成され得る。すなわち、オブジェクトが車両に接近して車両の右側に通ることと予測される場合、アラウンドビュー映像で第2合成領域303が第1重畳領域345及び第2重畳領域347を含むように変更されたアラウンドビュー変造映像が生成され得る。
図12cに示したように、アラウンドビュー変造映像によってオブジェクトが車両の右側に通ってもオブジェクトが消える現象が防止され得る。
図12b及び図12cに示したように、アラウンドビュー変造映像で第2合成領域303の変更により、第1合成領域301及び第3合成領域305も変更され得る。
第1ないし第3合成領域301、303、305が変更される場合、そのような変更に対応する第1ないし第3識別バー384、385、386も変更され得る。
すなわち、第2識別バー385のサイズは、大きくなることのに対し、第1及び第3識別バー384、386それぞれのサイズは小くなることがある。
図12dに示したように、オブジェクトが車両の右側に完全に通った場合、アラウンドビュー変造映像は、元のアラウンドビュー映像に復元され得る。これによって、第1ないし第3識別バー384、385、386また元のサイズに復元され得る。
第5実施例
第5実施へのプロセッサー170の構成は、図9と同一である。
すなわち、第5実施例は、第1及び第2実施例とは異なり、オブジェクトの接近によってアラウンドビュー映像の境界線が変更されない状況、例えば少なくとも二つ以上の境界線の付近にオブジェクトが接近するときの画面構成に関するものである。
図13に示したように、車両700の前方からアラウンドビュー映像の第1及び第2合成領域301、303の間の境界線361に特定オブジェクトが進入するとき、当該オブジェクトは、境界線361によって重畳されたり消えることがある。
このような場合、運転者は、当該オブジェクトを認識することができなくなって、ともすれば事故が発生し得る。
第5実施例によれば、プロセッサー170は、特定オブジェクトが特定の境界線、例えば第1及び第2合成領域301、303の間の境界線361に進入するとき、警告音を出力するように制御することができる。このような警告音は、図1に示されたオーディオ出力部185を介して出力され得る。
他の例として、プロセッサー170は、特定オブジェクトが境界線361に進入するとき、当該境界線361やその隣接領域のきらめく現象がディスプレイされるようにすることができる。
第6実施例
第6実施例は、第3実施例図10と類似している。すなわち、少なくとも二つ以上のオブジェクトが車両に接近し、一つのオブジェクトの動きは、特定の合成領域の変更を介して完全に把握することができるが、他のオブジェクトは、特定の合成領域の変更が不可能で境界線に位置する状況が発生するだけでなく現在後進モード動作で車両が後進されて第3カメラ160cから獲得された後方映像が画面にディスプレイされてこれ以上追加の画面が生成されることができない場合に関するものである。
図14aに示したように、第1オブジェクト、例えば人が車両の右側に通る前にアラウンドビュー変造映像を介して第2合成領域303が拡大され得る。これによって、第1オブジェクトが車両の右側に通ってもアラウンドビュー変造映像で消える現象が発生しないようになる。アラウンドビュー変造映像は、第1画面371を介してディスプレイされ得る。
しかし、第2オブジェクト、例えば自転車が車両の前方に移動中にアラウンドビュー変造映像の境界線361に位置する場合、第2オブジェクトは、アラウンドビュー変造映像で消えることがある。
第3実施例では。このように消えることがある第2オブジェクトの動きを明確に把握するように第1カメラ160aから獲得された第1映像321が直接ディスプレイされ得る。
第6実施例では、追加的に現在後進モードに動作されて図14bに示したように第3カメラ160cによって獲得された第3映像325が第2画面385を介してディスプレイされているので、余分の画面がないことがある。すなわち、ディスプレイ部180の画面は、最大2個の画面371、385に分割され得る。
このような場合、図14bに示したように、第2オブジェクトがアラウンドビュー変造映像で消えるにもかかわらず、画面上に追加的に第2オブジェクトに関する映像がディスプレイされることができない場合、プロセッサー170は、第2オブジェクトが境界線361に進入するとき、警告音を出力するように制御することができる。このような警告音は、図1に示されたオーディオ出力部185を介して出力され得る。
プロセッサー170は、当該境界線361と第1重畳領域345の一部上に第1オーバレイ領域381がディスプレイされ得る。また、第3カメラ160cから獲得された第3映像325を含む第2画面385の枠に沿って第2オーバレイ領域383がディスプレイされ得る。
このようなオーバレイ領域381、383を介して運転者の関心を誘導してさらに 積極的に事故に対処するようにすることができる。
前記の詳細な説明はすべての面で制限的に解釈されてはならず、例示的なものとして考慮されなければならない。本発明の範囲は添付された請求項の合理的解釈によって 決定されなければならず、本発明の等価的範囲内でのすべての変更は本発明の範囲に含まれる。
産業上利用可能性
実施例は、燃料自動車に適用され得る。
実施例は、電気自動車や水素自動車のような親環境自動車に適用され得る。
実施例は、スマートカー、コネックティトカーや自律走行車のような未来型自動車に適用され得る。

Claims (10)

  1. 第1及び第2映像情報を獲得する第1及び第2カメラ;及び
    プロセッサーを含み、
    前記プロセッサーは、
    前記第1及び第2映像をもとに被写体の重畳領域を含む第1領域と前記被写体の重畳領域を含まない第2領域とを含むアラウンドビュー映像を生成し、
    前記被写体の重畳領域は、前記第1及び第2映像で第1及び第2境界線の間に配置され、前記第1境界線は、前記第1領域内に位置され、前記第2境界線は、前記第2領域と接し、
    第1オブジェクトが一定の距離以内に近接して前記第2境界線を通ることと予測される場合、前記第2領域が前記被写体の重畳領域を含むように前記第2領域を変更させたアラウンドビュー映像を生成する、アラウンドビュー提供装置。
  2. 前記第2領域が前記被写体の重畳領域に対応する領域を含むように拡大される場合、前記第1領域は、前記被写体の重畳領域に対応する領域が除かれて縮小される、請求項1に記載のアラウンドビュー提供装置。
  3. 前記プロセッサーは、
    前記第2領域を変更させるために前記第2境界線の位置が前記第1境界線の位置に変更させる、請求項1に記載のアラウンドビュー提供装置。
  4. 第1及び第2映像を獲得する第1及び第2カメラ;及び
    プロセッサーを含み、
    前記プロセッサーは、
    前記獲得された第1及び第2映像をもとに重畳領域を含む第1合成領域と前記重畳領域を含まない第2合成領域とを含むアラウンドビュー映像を生成し、前記重畳領域は第1及び第2境界線の間に配置され、前記第1境界線は前記第1合成領域内に位置し、前記第2境界線は前記第2合成領域と接し、
    第1オブジェクトが一定の距離以内に近接して前記第2境界線を通ることと予測される場合、前記重畳領域を含むように前記第2合成領域を拡大させて前記重畳領域が除かれた第1合成領域を縮小させたアラウンドビュー変造映像を生成するアラウンドビュー提供装置。
  5. 前記プロセッサーは、
    前記第1オブジェクトが前記第2境界線を通った場合、前記重畳領域を含むように前記第1合成領域を拡大させたアラウンドビュー映像を復元させる、請求項4に記載のアラウンドビュー提供装置。
  6. 前記プロセッサーは、
    前記獲得された第1及び第2映像の少なくとも一つの映像から少なくとも一つのオブジェクトを抽出し、前記抽出された少なくとも一つのオブジェクトの動きを追跡するオブジェクト追跡部;
    前記獲得された第1及び第2映像をもとに前記重畳領域を含む第1合成領域と前記重畳領域を含まない前記第2合成領域とを含む前記アラウンドビュー映像を生成するアラウンドビュー生成部;及び
    前記追跡されたオブジェクトの動きと距離情報をもとに前記重畳領域を含むように前記第2合成領域を拡大させたアラウンドビュー変造映像を生成するアラウンドビュー変造部を含む、請求項4に記載のアラウンドビュー提供装置。
  7. 前記プロセッサーは、
    前記アラウンドビュー変造映像で前記第2合成領域が前記第1境界線に拡大されて前記第1境界線に第2オブジェクトが通る場合、前記第2オブジェクトが位置した部分を撮影するカメラから獲得された映像をディスプレイするための画面を生成する画面生成部をさらに含む、請求項6に記載のアラウンドビュー提供装置。
  8. 前記プロセッサーは、
    前記アラウンドビュー変造映像で前記第2合成領域が前記第1境界線に拡大されて前記第1境界線に第2オブジェクトが通るが、前記第2オブジェクトが位置した部分を撮影するカメラから獲得された映像をディスプレイするための画面がない場合、警告音を出力する一方、前記アラウンドビュー変造映像の第1境界線の付近にオーバレイ領域をディスプレイさせる、請求項7に記載のアラウンドビュー提供装置。
  9. 前記プロセッサーは、
    前記生成されたアラウンドビュー変造映像をもとにアラウンドビュー変造映像の合成領域が拡大されることを識別する複数の識別バーを含む画面を生成する画面生成部;及び
    前記複数の識別バーを含む画面をディスプレイさせるためのディスプレイ部をさらに含む、請求項6に記載のアラウンドビュー提供装置。
  10. 前記合成領域は、複数であり、前記識別バーは、複数の前記合成領域のそれぞれに対応する領域に前記合成領域にそれぞれの面積に対応する面積を有するように配置される、請求項9に記載のアラウンドビュー提供装置。
JP2019538193A 2017-01-13 2018-01-12 アラウンドビュー提供装置 Active JP7242531B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR1020170006432A KR102551099B1 (ko) 2017-01-13 2017-01-13 어라운드뷰 제공장치, 제공방법 및 이를 구비한 차량
KR10-2017-0006432 2017-01-13
PCT/KR2018/000643 WO2018131949A1 (ko) 2017-01-13 2018-01-12 어라운드뷰 제공장치

Publications (2)

Publication Number Publication Date
JP2020516100A true JP2020516100A (ja) 2020-05-28
JP7242531B2 JP7242531B2 (ja) 2023-03-20

Family

ID=62840617

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019538193A Active JP7242531B2 (ja) 2017-01-13 2018-01-12 アラウンドビュー提供装置

Country Status (6)

Country Link
US (2) US11084423B2 (ja)
EP (1) EP3569461B1 (ja)
JP (1) JP7242531B2 (ja)
KR (1) KR102551099B1 (ja)
CN (1) CN110177723B (ja)
WO (1) WO2018131949A1 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017119394A1 (de) * 2017-08-28 2019-02-28 HELLA GmbH & Co. KGaA Verfahren zur Ansteuerung mindestens eines Lichtmoduls einer Leuchteinheit eines Fahrzeugs, Leuchteinheit, Computerprogrammprodukt und computerlesbares Medium
FR3079924B1 (fr) * 2018-04-10 2021-10-29 Genetec Inc Suivi par geolocalisation
US10586456B2 (en) * 2018-04-27 2020-03-10 TuSimple System and method for determining car to lane distance
CN108995592B (zh) * 2018-08-02 2021-06-15 张士文 汽车影像系统
KR102063957B1 (ko) * 2019-07-19 2020-01-08 주식회사 아이엔티코리아 지게차 작업사고를 방지하는 방법 및 시스템
WO2021054500A1 (ko) * 2019-09-20 2021-03-25 엘지전자 주식회사 이미지 생성 방법 및 이미지 생성 장치
JP6998360B2 (ja) * 2019-12-13 2022-01-18 本田技研工業株式会社 車両用表示装置及び駐車支援システム
KR102281609B1 (ko) * 2020-01-16 2021-07-29 현대모비스 주식회사 어라운드뷰 합성 시스템 및 방법
US11161456B1 (en) * 2020-03-17 2021-11-02 Ambarella International Lp Using the image from a rear view camera in a three-camera electronic mirror system to provide early detection of on-coming cyclists in a bike lane
CN114516338A (zh) * 2020-11-17 2022-05-20 佳骏科技股份有限公司 行车监控系统
KR102327860B1 (ko) 2021-06-14 2021-11-17 주식회사 에이스뷰 차량용 다채널 어라운드뷰 모니터링 방법 및 시스템
CN113747119A (zh) * 2021-07-30 2021-12-03 的卢技术有限公司 一种远程查看车辆周围环境的方法及系统
CN116912517B (zh) * 2023-06-06 2024-04-02 阿里巴巴(中国)有限公司 相机视野边界的检测方法及装置
CN116916156B (zh) * 2023-08-16 2023-12-05 深圳金语科技有限公司 一种监视系统分视野显示方法及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007104373A (ja) * 2005-10-05 2007-04-19 Alpine Electronics Inc 車両用画像表示装置
WO2011036892A1 (ja) * 2009-09-24 2011-03-31 パナソニック株式会社 運転支援表示装置
JP2011071932A (ja) * 2009-09-28 2011-04-07 Mitsubishi Motors Corp 車両周辺監視装置

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS51102376A (ja) 1975-01-31 1976-09-09 Tokyo Shibaura Electric Co Shomeisochi
JP4812510B2 (ja) * 2006-05-17 2011-11-09 アルパイン株式会社 車両周辺画像生成装置および撮像装置の測光調整方法
WO2009040872A1 (ja) * 2007-09-25 2009-04-02 Fujitsu Limited 画像合成装置及び方法
JP4876118B2 (ja) * 2008-12-08 2012-02-15 日立オートモティブシステムズ株式会社 立体物出現検知装置
KR100966288B1 (ko) * 2009-01-06 2010-06-28 주식회사 이미지넥스트 주변 영상 생성 방법 및 장치
JP5068779B2 (ja) * 2009-02-27 2012-11-07 現代自動車株式会社 車両周囲俯瞰画像表示装置及び方法
JP2010245803A (ja) * 2009-04-06 2010-10-28 Sanyo Electric Co Ltd 画像処理装置
JP5500877B2 (ja) * 2009-06-15 2014-05-21 アルパイン株式会社 車載用画像表示装置および画像のトリミング方法
CN102142138A (zh) * 2011-03-23 2011-08-03 深圳市汉华安道科技有限责任公司 一种车辆辅助系统中的图像处理方法以及子系统
KR20120130456A (ko) * 2011-05-23 2012-12-03 아진산업(주) 차량의 어라운드 뷰 제공 방법
JP5483120B2 (ja) * 2011-07-26 2014-05-07 アイシン精機株式会社 車両周辺監視システム
JP5979505B2 (ja) * 2011-08-26 2016-08-24 パナソニックIpマネジメント株式会社 運転支援装置
CN103477634B (zh) * 2011-09-30 2016-11-23 松下知识产权经营株式会社 俯瞰图像生成装置和俯瞰图像生成方法
JP5867273B2 (ja) * 2012-04-27 2016-02-24 富士通株式会社 接近物体検知装置、接近物体検知方法及び接近物体検知用コンピュータプログラム
CN104285441B (zh) * 2012-05-22 2018-01-05 三菱电机株式会社 图像处理装置
KR101905872B1 (ko) * 2012-06-01 2018-10-08 현대모비스 주식회사 어라운드 뷰 모니터링 시스템 및 어라운드 뷰 표시 방법
JP6084434B2 (ja) * 2012-10-31 2017-02-22 クラリオン株式会社 画像処理システム及び画像処理方法
US10179543B2 (en) * 2013-02-27 2019-01-15 Magna Electronics Inc. Multi-camera dynamic top view vision system
JP6349637B2 (ja) * 2013-07-11 2018-07-04 株式会社デンソー 車両用画像合成装置
JP5999043B2 (ja) 2013-07-26 2016-09-28 株式会社デンソー 車両周辺監視装置およびプログラム
US9598012B2 (en) * 2014-03-11 2017-03-21 Toyota Motor Engineering & Manufacturing North America, Inc. Surroundings monitoring system for a vehicle
JP6459659B2 (ja) * 2014-03-18 2019-01-30 株式会社リコー 画像処理装置、画像処理方法、運転支援システム、プログラム
KR101567405B1 (ko) * 2014-04-30 2015-11-20 엘지전자 주식회사 차량용 어라운드뷰 제공 장치 및 이를 구비한 차량
KR101565006B1 (ko) * 2014-05-30 2015-11-13 엘지전자 주식회사 차량용 어라운드뷰 제공 장치 및 이를 구비한 차량
JP6311020B2 (ja) * 2014-06-20 2018-04-11 クラリオン株式会社 映像合成システムとそのための映像合成装置及び映像合成方法
US20160159281A1 (en) * 2014-12-04 2016-06-09 Hyundai Mobis Co., Ltd. Vehicle and control method thereof
KR102300652B1 (ko) * 2015-01-19 2021-09-10 현대모비스 주식회사 차량 및 그 제어 방법
CN109313018B (zh) * 2016-06-08 2021-12-10 索尼公司 成像控制装置和方法、以及车辆

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007104373A (ja) * 2005-10-05 2007-04-19 Alpine Electronics Inc 車両用画像表示装置
WO2011036892A1 (ja) * 2009-09-24 2011-03-31 パナソニック株式会社 運転支援表示装置
JP2011071932A (ja) * 2009-09-28 2011-04-07 Mitsubishi Motors Corp 車両周辺監視装置

Also Published As

Publication number Publication date
US20190351824A1 (en) 2019-11-21
EP3569461B1 (en) 2023-12-27
EP3569461A1 (en) 2019-11-20
KR102551099B1 (ko) 2023-07-05
WO2018131949A1 (ko) 2018-07-19
KR20180083762A (ko) 2018-07-23
US20210331623A1 (en) 2021-10-28
US11661005B2 (en) 2023-05-30
JP7242531B2 (ja) 2023-03-20
US11084423B2 (en) 2021-08-10
CN110177723B (zh) 2022-11-04
EP3569461A4 (en) 2020-11-18
CN110177723A (zh) 2019-08-27

Similar Documents

Publication Publication Date Title
US11661005B2 (en) Apparatus for providing around view
KR101949438B1 (ko) 차량용 디스플레이 장치 및 이를 포함하는 차량
KR101844885B1 (ko) 차량 운전 보조장치 및 이를 포함하는 차량
US10924679B2 (en) Display device for vehicle and control method thereof
KR101750178B1 (ko) 차량 외부 알람방법, 이를 실행하는 차량 운전 보조장치 및 이를 포함하는 차량
KR101741433B1 (ko) 운전자 보조 장치 및 그 제어방법
KR101732983B1 (ko) 차량용 리어 콤비네이션 램프 및 이를 포함하는 차량
US20170240185A1 (en) Driver assistance apparatus and vehicle having the same
US11548452B2 (en) Method and device for correcting vehicle view cameras
KR102420922B1 (ko) 차량 운전 보조장치 및 이를 포함하는 차량
KR20180080939A (ko) 차량 운전 보조장치 및 이를 포함하는 차량
KR101897350B1 (ko) 차량 운전 보조장치
KR101843535B1 (ko) 차량 운전 보조장치 및 이를 포함하는 차량
KR101985496B1 (ko) 차량 운전 보조장치 및 이를 포함하는 차량
KR20180106336A (ko) 카메라장치, 이를 이용한 충돌방지장치 및 충돌방지방법
KR101894636B1 (ko) 차량 운전 보조장치 및 이를 포함하는 차량
KR101888259B1 (ko) 차량 보조장치 및 이를 포함하는 차량
KR101938884B1 (ko) 자동주차 보조장치 및 이를 포함하는 차량
KR101929288B1 (ko) 자동주차 보조장치 및 이를 포함하는 차량
KR101929300B1 (ko) 자동주차 보조장치 및 이를 포함하는 차량

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190716

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210105

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220519

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220531

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220831

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220901

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221004

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230308

R150 Certificate of patent or registration of utility model

Ref document number: 7242531

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150