JP2014097781A - 車両用画像システムおよび車両用画像のための表示制御方法 - Google Patents

車両用画像システムおよび車両用画像のための表示制御方法 Download PDF

Info

Publication number
JP2014097781A
JP2014097781A JP2013153757A JP2013153757A JP2014097781A JP 2014097781 A JP2014097781 A JP 2014097781A JP 2013153757 A JP2013153757 A JP 2013153757A JP 2013153757 A JP2013153757 A JP 2013153757A JP 2014097781 A JP2014097781 A JP 2014097781A
Authority
JP
Japan
Prior art keywords
display
image
vehicle image
gesture recognition
command
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013153757A
Other languages
English (en)
Inventor
Ching-Ju Hsia
夏靜如
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
AviSonic Tech Corp
Original Assignee
AviSonic Tech Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by AviSonic Tech Corp filed Critical AviSonic Tech Corp
Publication of JP2014097781A publication Critical patent/JP2014097781A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/27Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/28Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with an adjustable field of view
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/302Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with GPS information or vehicle data, e.g. vehicle speed, gyro, steering angle data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/303Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using joined images, e.g. multiple camera images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/602Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective with an adjustable viewpoint
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/161Indexing scheme relating to constructional details of the monitor
    • G06F2200/1614Image rotation following screen orientation, e.g. switching from landscape to portrait mode
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/163Indexing scheme relating to constructional details of the computer
    • G06F2200/1637Sensing arrangement for detection of housing movement or orientation, e.g. for controlling scrolling or cursor movement on the display of an handheld computer

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Mechanical Engineering (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】運転手が、車両用画像におけるあらゆる視野角度を得ることができると共に容易に画像を制御することができる新規な車両用画像システムを提供する。
【解決手段】車両用画像システムは、表示部と、画像取得部と、センシング受信部と、ジェスチャ認識部と、処理部とを含む。画像取得部は、複数のサブ画像を受信するように定められている。センシング受信部は、検出情報を生成するためのセンシングイベントを検出するように定められている。ジェスチャ認識部は、センシング受信部と連動し、検出情報に従ってジェスチャ認識結果を生成するように定められている。処理部は、画像取得部およびジェスチャ認識部と連動し、サブ画像に従って車両用画像を生成し、ジェスチャ認識結果に従って表示部における車両用画像の表示を制御するように定められている。
【選択図】図1

Description

開示される本発明の実施形態は、車両用画像システムに関し、特に、ジェスチャを決定するためのタッチ装置(例えば、静電容量方式の多点タッチパネル)または非接触/非タッチ光学センサを用いることによって、2次元/3次元の車両用画像の表示を制御する車両システム、および関連する制御方法に関する。
通常、アラウンドビューモニタ(AVM)システムの車両用画像は、固定された視野角度/位置(すなわち、鳥瞰的視野の画像)にあり、車両の画像が画面の中央にある。ユーザは、車両用画像の視野角度/位置を調整できない。従来の一解決策は、車両用画像の表示を制御するためにジョイスティックまたはキーボードを用いる。しかしながら、これらの装置はいずれも、総費用を増加させるとともに、その制御が不自由である。さらに、ジョイスティックは機械装置であることから、故障確率が高くかつ製品寿命が短く、さらには追加の配置スペースを要求する。ジョイスティックは交通事故において破損する可能性があり、車両内の乗客を傷つける危険性を増大させる。さらに、運転手のための表示モードおよび情報は、次世代の車両用画像システムの要求を満足し得ない機械装置もしくはキーパッドを使用するものに限定される。
上記問題点に関して、運転手が、車両用画像におけるあらゆる視野角度を得ることができると共に容易に画像を制御することができる新規な車両用画像システムは、道路における安全性を向上させる。
上記問題点を解決するために、本発明の一目的は、ジェスチャを決定するためのタッチ装置または非接触光学センサを使用することによって、車両用画像の表示を制御する車両システムおよび関連する制御方法を提供することである。
本発明の一実施形態によれば、例示的な車両用画像システムが開示される。例示的な車両用画像システムは、表示部と、画像取得部と、センシング受信部と、ジェスチャ認識部と、処理部とを備える。画像取得部は、カメラから複数のサブ画像を受信するように配置されている。センシング受信部は、検出情報を生成するためのセンシングイベントを検出するように配置されている。ジェスチャ認識部は、センシング受信部と連動し、検出情報に従ってジェスチャ認識結果(すなわち、ジェスチャの認識情報)を生成するように配置されている。処理部は、画像取得部およびジェスチャ認識部と連動し、サブ画像に従って車両用画像を生成し、ジェスチャ認識部の結果(すなわち、ジェスチャ認識結果)に従って表示部における車両用画像の表示(例えば、表示モードおよび/または視野角度)を制御するように配置されている。
本発明の一実施形態によれば、車両用画像のための例示的な表示制御方法が開示される。例示的な表示制御方法は、以下のステップ:複数のサブ画像を受信するステップと、サブ画像に従って車両用画像を生成するステップと、検出情報を生成するためのセンシングイベントを検出するステップと、検出情報に従ってジェスチャ認識結果を生成するステップと、ジェスチャ認識結果に従って車両用画像の表示(例えば、表示モードおよび/または視野角度)を制御するステップとを含む。
提案される、車両用画像の視野角度を制御する車両用画像システムは、ユーザにとって便利な操作経験を提供するのみならず、あらゆる視野角度からのオブジェクトの表示も提供することができる。提案される車両用画像システムは、追加の費用および余分なスペースをほとんど必要とすることなく、車両に設置することができる。
当業者には、本発明のこれらの目的および他の目的が、多様な図面に示された好ましい実施形態についての以下の詳細な説明を読んだ後、疑いの余地なく明白になるであろう。
本発明の一実施形態に係る例示的な汎用の車両用画像システムを示す図面である。 本発明の第1の実施形態に係る例示的な車両用画像システムを示す図面である。 本発明の一実施形態に係る、図2に示す表示部の例示的な画面レイアウトを示す図面である。 本発明の第1の実施形態に係る、ジェスチャを用いた、車両用画像の例示的な表示ズームイン/アウト制御を示す図面である。 本発明の第2の実施形態に係る、ジェスチャを用いた、車両用画像の例示的な表示回転制御を示す図面である。 本発明の第3の実施形態に係る、ジェスチャを用いた、車両用画像の例示的な表示移動制御を示す図面である。 本発明の第4の実施形態に係る、ジェスチャを用いた、車両用画像の例示的な表示傾斜制御を示す図面である。 本発明の一実施形態に係る、タッチパネルを用いた、車両用画像のための例示的な表示制御方法のフローチャートである。 本発明の第2の実施形態に係る、例示的な車両用画像システムを示す図面である。 本発明の一実施形態に係る、光学センシング部を用いた、車両用画像のための例示的な表示制御方法のフローチャートである。
図1を参照する。図1は、本発明の一実施形態に係る、例示的な汎用車両用画像システムを示す図面である。図1に示すように、車両用画像システムは、表示部105と、画像取得部110と、センシング受信部120と、ジェスチャ認識部130と、処理部140とを含み得る。ジェスチャ認識部130は、センシング受信部140と連動し、処理部140は、画像取得部110およびジェスチャ認識部130と連動する。まず、画像取得部110は、複数のサブ画像IMG_S1〜IMG_Sn(例えば、複数の広角歪曲画像)を受信できる。そして、処理部140は、サブ画像IMG_S1〜IMG_Snに従って、車両用画像(例えば、360°アラウンドビューモニタ(AVM)画像)を生成できる。より具体的には、処理部140は、複数の補正画像を生成するためにサブ画像IMG_S1〜IMG_Snのそれぞれに対して幾何学変換(例えば、広角画像歪曲補正および上方視点変換)を実行し、360°AVM車両用画像を生成するために該補正画像を合成(例えば、画像結合)できる。車両用画像を生成した後、処理部140は、対応する車両表示情報INF_VDを表示部150に送信できる。ここで、車両表示情報INF_VDは、車両用画像および関連する表示メッセージ(例えば、駐車補助グラフィック)を含み得る。他の設計としては、処理部140はさらに車両の画像を記憶し、該車両の画像および360°AVM画像を含む車両用画像を生成するために、サブ画像IMG_S1〜IMGSnおよび記憶された該車両の画像を合成してもよい。
センシングイベントTE(例えば、ユーザのジェスチャ)が生じたとき、センシング受信部120は、検出情報DRを生成するためにセンシングイベントTEを検出でき、ジェスチャ認識部130は、検出情報DRに従ってジェスチャ認識結果GR(すなわち、ジェスチャの認識情報)を生成できる。次に、処理部140は、ジェスチャ認識結果GRに従って、表示部105における車両用画像の表示(例えば、表示モードおよび/または視野角度)を制御できる(すなわち、車両表示情報INF_VDを更新する)。センシング受信部120は、ジェスチャを取得するためのモーション・キャプチャ装置であってもよいことに留意すべきである。例えば、センシング受信部120は、接触式のタッチ受信部(例えば、静電容量方式の多点タッチパネル)、または、非接触センシング受信部(例えば、赤外線近接センサ)であってもよい。
一実装において、処理部140は、表示部105における車両用画像の表示を制御するために、ジェスチャ認識結果に従って、直接的に車両用画像に対して対応する動作(例えば、画像オブジェクト属性変化動作または幾何学変換)を実行してもよい。例えば、処理部140は、ジェスチャ認識結果GR(例えば、オブジェクト選択ジェスチャ)に従って、車両用画像における選択されたオブジェクトの色を変化させてもよい。さらに、処理部140は、ジェスチャ認識結果GR(例えば、ドラッグジェスチャ)に従って、車両用画像の表示範囲を調整してもよい。他の実行において、処理部140は、まず、ジェスチャ認識結果GRに従って、サブ画像IMG_S1〜IMG_Snに対して対応する動作(例えば、幾何学変換)を実行し、次に、表示部105における車両用画像の表示を制御するために、変換されたサブ画像IMG_S1〜IMG_Snを合成できる。上記幾何学変換は、ズームイン動作、ズームアウト動作、回転動作、移動動作、傾斜動作、または、視野角度/位置の変化動作であってもよいことに留意すべきである。
図1に示す車両用画像システム100のより優れた理解のために、図2を参照する。図2は、本発明の第1の実施形態に係る例示的な車両用画像システムを示す図面である。車両用画像システム200は、電子制御部(ECU)202と、ヒューマン・マシンインターフェース204と、カメラ装置206と、センサ装置208とを含み得る。ECU202は、カメラ装置206により提供される複数のサブ画像IMG_S1〜IMG_S4と、センサ装置208により提供される複数のセンシング結果SR1〜SR3とを受信し、それに応じて、車両表示情報INF_VDをヒューマン・マシンインターフェース204に出力できる。一旦、ユーザ/運転手が、ジェスチャをヒューマン・マシンインターフェース204に対して実行すれば、ECU202は、検出情報DRに従って、車両表示情報INF_VDを更新できる。
本実施形態において、カメラ装置206は、複数のカメラ251〜257を含む。複数のカメラ251〜257は、車両の周囲のサブ画像IMG_S1〜IMG_S4(例えば、車両の前方、後方、左方、右方にそれぞれ対応する複数の広角画像)をそれぞれ取得するように配置されている。センサ装置208は、ステアリングセンサ261と、車輪速度センサ263と、シフト位置センサ265とを含む。ECU202は、画像取得部210と、ジェスチャ認識部230と、処理部240とを含む。ここで、処理部240は、表示情報処理回路241と、パラメータ設定回路243と、オンスクリーン表示・直線生成部245と、記憶部247とを含み得る。上記装置を用いた初期表示の生成は、以下のとおり説明される。
まず、画像取得部210は、サブ画像IMG_S1〜IMG_S4を受信し、これらを表示情報処理回路241へと送信できる。ステアリングセンサ261は、センシング結果SR1を生成するために車両の旋回角度(例えば、車輪の旋回角度)を検出でき、オンスクリーン表示・直線生成部245は、センシング結果SR1に従って、予測した進路(例えば、駐車補助グラフィック)の表示情報を生成できる。車輪速度センサ263は、センシング結果SR2を生成するための車輪回転速度を検出でき、オンスクリーン表示・直線生成部245は、センシング結果SR2に従って、現在の車両速度における表示情報を生成できる。したがって、表示情報処理回路241は、予測進路および車両速度を含むオンスクリーン表示情報INF_OSDを受信できる。
シフト位置センサ265は、センシング結果SR3を生成するために変速装置のギア位置情報を検出でき、パラメータ設定回路243は、センシング結果SR3に従って画面レイアウトを決定できる。図2と併せて図3を参照する。図3は、本発明の一実施形態に係る、図2に示す表示部225の例示的な画面レイアウトを示す図面である。本実施形態では、車両が前方に移動する(例えば、変速装置のギアが推進位置にある)とき、表示情報処理回路241は、360°AVM画像を生成するためにサブ画像IMG_S1〜IMG_S4を結合し、車両用画像IMG_VRを生成するために車両の画像IMG_V(記憶部247に記憶されている)およびAVM画像を合成し、それにより、表示設定DSに従って、車両表示情報INF_VD1を表示部225に表示できる。運転手が変速装置のギアを後進の位置へとシフトさせるとき、パラメータ設定回路243により生成される表示設定DSは、必要な1つの画像もしくは2/3の画像の表示設定(すなわち、シングルウィンドウまたはマルチウィンドウ表示設定)である。ここで、これら表示設定の表示コンテンツは、360°AVM画像、上方視点画像などを含み得る。それゆえ、表示情報処理回路241は、表示設定DSに従って、車両表示情報INF_VD2を表示部225に表示できる。ここで、車両表示情報INF_VD2は、車両用画像IMG_VRならびに複数の後方視点画像IMG_G1およびIMG_G2を含み得る。当業者ならば、ギア位置の切り替えを利用した画面レイアウト調整の動作を理解する筈なので、ここでは簡潔さのため、さらなる説明を省略する。
上記説明を考慮すると、表示情報処理回路241は、サブ画像IMG_S1〜IMG_S4と、オンスクリーン表示情報INF_OSDと、表示設定DSとに従って、車両表示情報INF_VDを出力できる。これによって、シングルウィンドウ画像またはマルチウィンドウ画像を表示部225に表示させることを可能とする。ここで、シングルウィンドウ/マルチウィンドウ画像は、駐車補助グラフィック、移動オブジェクト検出、および/または、車両速度などの表示情報を含み得る。簡潔さおよび明瞭さのため、以下の説明では、車両用画像の1つの例示的な表示制御を示すシングルウィンドウ画像を利用する。
図2と併せて図4を参照する。図4は、本発明の第1の実施形態に係る、車両用画像の例示的な表示ズームイン/アウト制御を示す図面である。本実施形態において、初期表示DP1は、車両オブジェクトOB_Vおよび不明オブジェクトOB_Nを示す。初期表示DP1における不明オブジェクトOB_Nはとても小さいため、ユーザは、不明オブジェクトOB_N(例えば、障害物または床の画像)によって何が表現されているのかが全くわからない。ユーザは、2本の指を互いの指から離れるように移動させる/広げるタッチジェスチャまたは光学センシングジェスチャによって、車両用画像の表示をズームインできる。一実装において、ユーザは、まず、ズームインされる画像領域を表示の中央へとドラッグ(タッチジェスチャまたは光学センシングジェスチャ)し、次に、2本の指を互いの指から離れるように移動させる(タッチジェスチャまたは光学センシングジェスチャ)ことによって、該画像領域をズームインできる。これにより「局所的に画像をズームインする」動作を実現できる。加えて、ユーザはさらに、車両用画像の表示をズームアウトするために、2本の指を同時に近づけてもよい。
画像拡大の一例を挙げると、タッチパネル220が、互いの指から離れるように移動する2本の指を検出した後、ジェスチャ認識部230は、指の移動量を車両用画像表示における拡大係数として解釈できる。すなわち、ジェスチャ認識結果GRは、車両用画像の表示を調整するためのジェスチャ命令(すなわち、ズームイン命令)および調整パラメータ(すなわち、拡大係数)を含み得る。次に、パラメータ設定回路243は、ズームイン命令および調整パラメータを取得できる。また、オンスクリーン表示・直線生成部245は、ジェスチャ認識部230からズームイン命令を取得できる。パラメータ設定回路243は、ジェスチャ認識結果GRと、シフト位置センサ265によって検出されたギア位置センシング結果SR3とに従って、表示情報処理回路241への、対応する表示設定DSを生成できる。オンスクリーン表示・直線生成部245は、ズームイン命令に従って、表示情報処理回路241への、対応するオンスクリーン表示情報INF_OSDを生成できる。したがって、表示情報処理回路241は、表示設定DSおよびオンスクリーン表示情報INF_OSD(すなわち、「ズームイン」命令を表示する)に従って、初期表示DP1を表示DP2へと調整できる。ここで、表示DP2は、用語「ズームイン」と、拡大された車両オブジェクトOB_Vと、拡大された不明オブジェクトOB_Nとを提示する。
本実施形態では、表示情報処理回路241は、まず、表示設定DSに従ってサブ画像IMG_S1〜IMG_S4に対して広角歪曲補正および上方視点変換を実行することによって、複数の補正画像を生成し、次に、補正画像に対して画像拡大を実行し、最後に、拡大された車両用画像を生成するために、拡大された補正画像を互いに結合する。ソース画像(すなわち、サブ画像IMG_S1〜IMG_S4)に対して幾何学変換を実行することによって車両用画像の表示(例えば、表示モードおよび/または視野角度)を制御すれば、車両用画像に対して直接的に幾何学変換を実行することによって生じる画像情報の欠損を回避し得るので、それによって、2次元/3次元(2D/3D)車両用画像における優れた操作経験をユーザに提供する。
表示DP2の不十分な拡大のせいで、ユーザがまだ不明オブジェクトOB_Nの種類を識別できない場合、ユーザは再び、画像拡大を速やかに実行することができる。識別の効率性および正確性を向上させるために、ジェスチャ命令が記憶されてもよく、タッチパネル220に対するタッチ情報を特定するために、2つの連続するジェスチャの間の時間間隔が計測されてもよい。
より具体的には、タッチパネル220から指が離れた(表示DP1が表示DP2へと調整された)とき、ジェスチャ認識部230は、ズームイン命令および調整パラメータをさらに記憶し、指がタッチパネル220から離れている間の維持時間の計測を開始してもよい。維持時間が所定時間を超える前に、ユーザがタッチパネル220において画像拡大を再び実行する場合(すなわち、表示DP3)、ジェスチャ認識部230は、ズームイン命令をパラメータ設定回路243およびオンスクリーン表示・直線生成部245へと送信することなく、単に拡大係数を解釈してもよい。あるいは、維持時間が所定時間を超える前にユーザがタッチパネル220において画像拡大を再び実行しない場合、ジェスチャ認識部230は、タッチ画面220に対するタッチ情報の認識を停止してもよい。上記記憶および計測のステップを実行する装置は、ジェスチャ認識部230に限定されないことに留意すべきである。例えば処理部240は、ジェスチャ命令を記憶し、2つの連続するジェスチャの間の時間間隔を計測し、車両表示情報INF_VDを更新しないことによって認識を停止するように定められていてもよい。要するに、上記記憶および計測のステップを実行するために、記憶機能を有するあらゆる装置が使用可能である。
タッチパネル220上でジェスチャを実行することによって、ユーザは、不明オブジェクトOB_Nの種類を速やかに確認できる。例えば、どの種類の不明オブジェクトOB_Nが表示されているかについて、ユーザが確信を持てない場合、ユーザは、直観的なジェスチャ(例えば、タッチ操作)を実行することによって、表示をズームインすることができ、それによって不明オブジェクトOB_Nを確定させることができる。不明オブジェクトOB_Nが障害物であった場合、ユーザは、障害物を迂回して交通の安全性を向上させることができる。不明オブジェクトOB_Nが子供であった場合、ユーザは、子供の安全を保証することができる。当業者ならば、ジェスチャはズームイン命令に限定されず、ズームイン命令は2本の指が互いの指から離れるような移動に限定されないことについて理解すべきであることに留意したい。さらに、車両用画像システム200が装甲現金輸送車などのセキュリティシステムに採用される場合、ユーザは、装甲現金輸送車の周辺にいる不審な人物を特定するために、ズームイン/ズームアウト命令を実行してもよい。これにより、セキュリティシステムをより堅牢にすることができる。さらに、処理部240は記憶部247を含むので、車両用画像システム200は、イベントデータレコーダ(EDR)と統合されることにより、画像表示制御機能を有するイベントデータレコーダへと改良することができる。
上述したように、ジェスチャ認識結果によって示されるジェスチャ命令は、ズームイン命令に限定されない。ジェスチャ命令は、回転命令、移動命令、傾斜命令、または、視野角度/位置変化命令であってもよい。ここで、調整パラメータは、ジェスチャ命令に対応する移動量である。図2と併せて図5を参照する。図5は、本発明の第2の実施形態に係る、車両用画像の例示的な表示回転制御を示す図面である。本実施形態において、ユーザは、彼/彼女の指を用いて、タッチパネル220上で反時計方向へと弧を描く。ジェスチャ認識結果GRは「反時計方向へと30°だけ回転する」ことを示し得る。ここで、ジェスチャ命令は反時計回りの回転命令であり、調整パラメータは30°である。ジェスチャ認識部230の機能に関して、ジェスチャ命令は1つの指に限定されず、複数の指によって実行されてもよいことに留意すべきである。複数の指を用いて弧を描くことによって、すなわち、一方の指を円の中心として用い、他方の指を円周上の一点として用いて回転させることによって、回転命令を実現できる。
図2と併せて図6を参照する。図6は、本発明の第3の実施形態に係る、車両用画像の例示的な表示移動制御を示す図面である。本実施形態において、ユーザの指は下方へとドラッグし、ジェスチャ認識結果GRは下方への移動命令を示し得る。ユーザの指が表示されているオブジェクト(例えば、車両)にタッチしたとき、オブジェクトが選択されたことをユーザに通知するために、オブジェクトは色を変化することができることに留意すべきである。
図2と併せて図7を参照する。図7は、本発明の第4の実施形態に係る、車両用画像の例示的な表示傾斜制御を示す図面である。本実施形態において、ユーザの指は、上方へとドラッグし、ジェスチャ認識結果GRは「前方へと30°だけ傾斜させる」ことを示し得る。ここで、ジェスチャ命令は傾斜命令であり、調整パラメータは30°である。望ましい実装において、表示情報処理回路241は、表示設定DSに従って、サブ画像IMG_S1〜IMG_S4に対する傾斜動作を実行し、その後、車両用画像の視野角度/位置を変化させるために、画像結合および画像合成を実行することができる。図3〜7に示す各車両用画像は、2D車両用画像または3D車両用画像であってもよいことに留意すべきである。さらに、車両用画像の表示を制御するために、視覚的な要求に従って、ユーザは前述のジェスチャ命令の組み合わせを実行してもよい(例えば、傾斜命令および回転命令を順番に実行する)。
再び、図1および図2を参照する。図1に示すセンシング受信部120は、図2に示すタッチパネル220によって実装できる。また、図1に示す処理部140は、図2に示す、表示情報処理回路241と、パラメータ設定回路243と、オンスクリーン表示・直線生成部245と、記憶部247とによって実装できる。オンスクリーン表示・直線生成部245および記憶部247は、任意の回路部であることに留意すべきである。図1に示す処理部140は、表示情報処理回路241およびパラメータ設定回路243によって実装できる。さらに、表示部225は、タッチパネル220に統合されていてもよい。
図8を参照する。図8は、本発明の一実施形態に係る、タッチパネルを用いた、車両用画像のための例示的な表示制御方法のフローチャートである。車両用画像は、複数のサブ画像(すなわち、複数の広角歪曲画像)によって合成される。より具体的には、複数の補正画像を生成するために、サブ画像に対して幾何学補正が実行され、続いて、車両用画像を生成するために、補正画像が合成され得る。一実装において、360°AVM画像を生成するために補正画像が合成され、その後、車両用画像を生成するために360°AVM画像および車両の画像が合成され得る。車両用画像が生成された後、図8に示す方法は、車両用画像の表示を制御するために利用できる。結果が実質的に同じであれば、図8に示す正確な順序で各ステップが実行される必要はない。本方法は以下のように要約できる。
ステップ800:開始する。
ステップ810:タッチパネルにおいて生じるタッチイベントを検出し、それに応じてタッチ検出情報を生成する。ここで、タッチ検出情報は、タッチパネルにおけるタッチオブジェクトの数と、動きの経路と、移動量とを含む。
ステップ820:対応する表示情報を表示する。
ステップ830:タッチ検出情報が、対応するジェスチャ命令を生成するか否かを判定する。Yesの場合、ステップ840へと進み、そうでなければ、ステップ830を繰り返す。
ステップ840:ジェスチャ命令に対応する調整パラメータを生成するために、タッチオブジェクトの移動量(例えば、変位ベクトルまたは回転量)を認識する。
ステップ850:ジェスチャ命令および調整パラメータに従って車両用画像の表示設定を生成し、それに応じて車両用画像の表示を調整する。
ステップ862:タッチオブジェクトがタッチパネルから離れたか否かを判定する。Yesの場合、ステップ864へと進み、そうでなければ、ステップ840へと戻る。
ステップ864:ジェスチャ命令および調整パラメータを記憶し、タッチオブジェクトがタッチパネルから離れている間の維持時間の計測を開始する。
ステップ866:維持時間が所定時間を超えたか否かを判定する。Yesの場合、ステップ870へと進み、そうでなければ、ステップ840へと戻る。
ステップ870:終了する。
ステップ820において、上記フローは、ステップ810において選択された画像オブジェクトの色を変化させてもよい。ステップ830において、上記フローは、タッチ検出情報が対応するジェスチャ命令を生成しないと判定されたとき、ユーザが所定のジェスチャと共にタッチパネルを操作するまでの間、ステップ830を繰り返してもよい。ステップ830におけるジェスチャ命令と、ステップ840における調整パラメータとは、図2に示すジェスチャ認識結果GRに対応し得ることに留意すべきである。ステップ862において、タッチオブジェクトがタッチパネルとの接触を維持するとき、ユーザが、同じジェスチャを用いてタッチパネルを連続的に操作することが含まれ得る。したがって、上記フローは、タッチオブジェクトの移動量の認識を維持するために、ステップ840を繰り返してもよい。ステップ866において、タッチオブジェクトがタッチパネルから離れている間の時間が、所定時間を超えないとき、ユーザが、同じジェスチャを用いてタッチパネルを連続的に操作すること(すなわち、タッチイベントが連続的に生じること)が含まれ得る。したがって、上記フローは、ステップ840を繰り返してもよい。当業者ならば、図1〜7に直結する段落を読んだ後、図8に示す各ステップの動作をすぐに理解できるので、簡潔さのために、ここではさらなる説明を省略する。
上述したように、図1に示すセンシング受信部120は、赤外線近接センサなどの非接触光学センシング受信部であってもよい。図9を参照する。図9は、本発明の第2の実施形態に係る、例示的な車両用画像システムを示す図面である。図9に示す車両用画像システム900のアーキテクチャは、図2に示す車両用画像システム200に基づく。ここで、その差異は、ヒューマン・マシンインターフェース904が光学センシング部920(例えば、赤外線近接センサ)を含む点である。光学センシング部920は、反射光に従ってユーザのジェスチャを検出できる。さらに、ECU902は、光学センシング結果LRを認識するように定められたジェスチャ認識部930を含む。本実施形態では、ユーザは、非接触ジェスチャにより車両用画像の表示を直接的に制御でき、それにより、車両用画像システム900の制御を円滑にする。非接触センシング受信部は、光学センシング部に限定されないことに留意すべきである。例えば、光学センシング部920は、動的な画像取得装置(例えば、カメラ)に交換されてもよい。動的な画像取得装置は、ユーザのジェスチャ画像を取得でき、対応するジェスチャ認識部は、処理部が車両用画像の表示を相応に制御できるように、該ジェスチャ画像を認識できる。
図10を参照する。図10は、本発明の一実施形態に係る、光学センシング部を用いた、車両用画像のための例示的な表示制御方法のフローチャートである。図10に示す本方法は図8に示す方法に基づいており、以下のように要約できる。
ステップ800:開始する。
ステップ1010:光学センシング部において生じる光学センシングイベントを検出し、それに応じて光学検出情報を生成する。ここで、光学検出情報は、光学センシング部におけるセンシングオブジェクトの数と、動きの経路と、移動量とを含む。
ステップ820:対応する表示情報を表示する。
ステップ1030:光学検出情報が、対応するジェスチャ命令を生成するか否かを判定する。Yesの場合、ステップ1040へと進み、そうでなければ、ステップ1030を繰り返す。
ステップ1040:ジェスチャ命令に対応する調整パラメータを生成するために、センシングオブジェクトの移動量(例えば、変位ベクトルまたは回転量)を認識する。
ステップ850:ジェスチャ命令および調整パラメータに従って車両用画像の表示設定を生成し、それに応じて車両用画像の表示を調整する。
ステップ1062:「終了」に対応するジェスチャが検出されたか否かを判定する。Yesの場合、ステップ1064へと進み、そうでなければ、ステップ1040へと戻る。
ステップ1064:ジェスチャ命令および調整パラメータを記憶し、「終了」に対応するジェスチャが検出されている間の維持時間の計測を開始する。
ステップ866:維持時間が所定時間を超えたか否かを判定する。Yesの場合、ステップ870へと進み、そうでなければ、ステップ1040へと戻る。
ステップ870:終了する。
当業者ならば、図1〜9に直結する段落を読んだ後、図10に示す各ステップの動作をすぐに理解できるので、簡潔さのために、ここではさらなる説明を省略する。
要約すれば、提案される車両用画像システムは、ユーザにとって便利な操作経験を提供するのみならず、あらゆる視野角度からのオブジェクトの表示も提供できる。提案される車両用画像システムは、追加の費用および余分なスペースをほとんど必要とすることなく、車両に設置できる。さらに、交通の安全性も向上される。
当業者ならば、本発明の教示を保ちながら、本装置および方法の数多くの変形および変更が可能であることに、直ちに気付くであろう。したがって、上記の開示は、添付の特許請求の範囲の境界によってのみ制限されると解釈されるべきである。

Claims (22)

  1. 表示部と、
    複数のサブ画像を受信する画像取得部と、
    検出情報を生成するためにセンシングイベントを検出するセンシング受信部と、
    上記センシング受信部と連動し、上記検出情報に従ってジェスチャ認識結果を生成するジェスチャ認識部と、
    上記画像取得部および上記ジェスチャ認識部と連動し、上記サブ画像に従って車両用画像を生成し、上記ジェスチャ認識結果に従って上記表示部における上記車両用画像の表示を制御する処理部とを備える、車両用画像システム。
  2. 上記センシング受信部は、接触タッチ受信部または非接触センシング受信部である、請求項1に記載の車両用画像システム。
  3. 上記ジェスチャ認識結果は、上記車両用画像の上記表示を調整するために用いられるジェスチャ命令および調整パラメータを含む、請求項1に記載の車両用画像システム。
  4. 上記ジェスチャ命令は、ズームイン命令、ズームアウト命令、回転命令、移動命令、傾斜命令、視野角度変化命令、または、視野位置変化命令である、請求項3に記載の車両用画像システム。
  5. 上記処理部は、複数のそれぞれの補正画像を生成するために上記サブ画像に対して幾何学補正を実行し、上記車両用画像を生成するために上記補正画像を合成する、請求項1に記載の車両用画像システム。
  6. 上記処理部は、上記表示部における上記車両用画像の上記表示を制御するために、上記ジェスチャ認識結果に従って上記サブ画像に対して幾何学変換を実行し、変換された上記サブ画像を合成する、請求項1に記載の車両用画像システム。
  7. 上記幾何学変換は、ズームイン動作、ズームアウト動作、回転動作、移動動作、傾斜動作、視野角度変化動作、または、視野位置変化動作である、請求項6に記載の車両用画像システム。
  8. 上記処理部は、上記表示部における上記車両用画像の上記表示を制御するために、上記ジェスチャ認識結果に従って上記車両用画像に対して直接的に幾何学変換を実行する、請求項1に記載の車両用画像システム。
  9. 上記幾何学変換は、ズームイン動作、ズームアウト動作、回転動作、移動動作、傾斜動作、視野角度変化動作、または、視野位置変化動作である、請求項8に記載の車両用画像システム。
  10. 上記処理部は、
    少なくとも上記ジェスチャ認識結果に従って上記車両用画像の表示設定を生成するパラメータ設定回路と、
    上記パラメータ設定回路と連動し、少なくとも上記表示設定に従って上記表示部における上記車両用画像の上記表示を制御する表示情報処理回路とを備える、請求項1に記載の車両用画像システム。
  11. 第1のセンシング結果を生成するために旋回角度を検出するステアリングセンサと、
    第2のセンシング結果を生成するために車輪回転速度を検出する車輪速度センサと、
    上記パラメータ設定回路と連動し、上記パラメータ設定回路への第3のセンシング結果を生成するためにギア位置情報を検出するシフト位置センサとをさらに備え、
    上記処理部は、上記第1のセンシング結果および上記第2のセンシング結果に従って上記表示情報処理回路へのオンスクリーン表示情報を生成するための、上記ステアリングセンサ、上記車輪速度センサ、および上記表示情報処理回路と連動するオンスクリーン表示・直線生成部をさらに備え、
    上記パラメータ設定回路は、上記第3のセンシング結果にさらに従って上記車両用画像の上記表示設定を生成し、
    上記表示情報処理回路は、上記オンスクリーン表示情報にさらに従って上記表示部における上記車両用画像の上記表示を制御する、請求項10に記載の車両用画像システム。
  12. 車両用画像のための表示制御方法であって、
    複数のサブ画像を受信するステップと、
    上記サブ画像に従って上記車両用画像を生成するステップと、
    検出情報を生成するためにセンシングイベントを検出するステップと、
    上記検出情報に従ってジェスチャ認識結果を生成するステップと、
    上記ジェスチャ認識結果に従って上記車両用画像の表示を制御するステップとを含む、表示制御方法。
  13. 上記センシングイベントは、接触タッチイベントまたは非接触センシングイベントである、請求項12に記載の表示制御方法。
  14. 上記ジェスチャ認識結果は、上記車両用画像の上記表示を調整するために用いられるジェスチャ命令および調整パラメータを含む、請求項12に記載の表示制御方法。
  15. 上記ジェスチャ命令は、ズームイン命令、ズームアウト命令、回転命令、移動命令、傾斜命令、視野角度変化命令、または、視野位置変化命令である、請求項14に記載の表示制御方法。
  16. 上記方法は、上記センシングイベントがトリガを停止することを、上記ジェスチャ認識結果が示すとき、
    上記ジェスチャ命令および上記調整パラメータを記憶するステップと、
    上記センシングイベントがトリガを停止している間の維持時間の計測を開始するステップと、
    上記維持時間に従って上記センシングイベントの認識を停止するか否かを決定するステップとをさらに含み、
    上記維持時間が所定時間を超えるとき、上記センシングイベントの認識を停止すると決定し、上記維持時間が上記所定時間を超えないとき、上記調整パラメータを更新するために上記センシングイベントの認識を継続すると決定する、請求項14に記載の表示制御方法。
  17. 上記サブ画像に従って上記車両用画像を生成する上記ステップは、
    複数のそれぞれの補正画像を生成するために、上記サブ画像に対して幾何学補正を実行するステップと、
    上記車両用画像を生成するために、上記補正画像を合成するステップとを含む、請求項12に記載の表示制御方法。
  18. 上記ジェスチャ認識結果に従って上記車両用画像の上記表示を制御する上記ステップは、上記車両用画像の上記表示を制御するために、上記ジェスチャ認識結果に従って上記サブ画像に対して幾何学変換を実行し、変換された上記サブ画像を合成するステップを含む、請求項12に記載の表示制御方法。
  19. 上記幾何学変換は、ズームイン動作、ズームアウト動作、回転動作、移動動作、傾斜動作、視野角度変化動作、または、視野位置変化動作である、請求項18に記載の表示制御方法。
  20. 上記ジェスチャ認識結果に従って上記車両用画像の上記表示を制御する上記ステップは、上記車両用画像の上記表示を制御するために、上記ジェスチャ認識結果に従って上記車両用画像に対して直接的に幾何学変換を実行するステップを含む、請求項12に記載の表示制御方法。
  21. 上記幾何学変換は、ズームイン動作、ズームアウト動作、回転動作、移動動作、傾斜動作、視野角度変化動作、または、視野位置変化動作である、請求項20に記載の表示制御方法。
  22. 上記ジェスチャ認識結果に従って上記車両用画像の上記表示を制御する上記ステップは、
    上記ジェスチャ認識結果に従って上記車両用画像の表示設定を生成するステップと、
    上記表示設定に従って上記車両用画像の上記表示を制御するステップとを含む、請求項12に記載の表示制御方法。
JP2013153757A 2012-11-13 2013-07-24 車両用画像システムおよび車両用画像のための表示制御方法 Pending JP2014097781A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
TW101142206 2012-11-13
TW101142206A TWI517992B (zh) 2012-11-13 2012-11-13 車用影像系統及其影像之顯示控制方法

Publications (1)

Publication Number Publication Date
JP2014097781A true JP2014097781A (ja) 2014-05-29

Family

ID=50682500

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013153757A Pending JP2014097781A (ja) 2012-11-13 2013-07-24 車両用画像システムおよび車両用画像のための表示制御方法

Country Status (5)

Country Link
US (1) US20140136054A1 (ja)
JP (1) JP2014097781A (ja)
KR (1) KR101481681B1 (ja)
CN (1) CN103809876A (ja)
TW (1) TWI517992B (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016012895A (ja) * 2014-06-30 2016-01-21 ダイハツ工業株式会社 車両周辺表示装置
JP2016199266A (ja) * 2016-07-20 2016-12-01 株式会社Jvcケンウッド 表示機能付きミラー装置および表示切替方法
JP2017004338A (ja) * 2015-06-12 2017-01-05 クラリオン株式会社 表示装置
JP2018002152A (ja) * 2017-10-12 2018-01-11 株式会社Jvcケンウッド 表示機能付きミラー装置および表示切替方法
JP2020170505A (ja) * 2019-04-04 2020-10-15 株式会社デンソー 車両のブラックボックス統合制御システム

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130037274A (ko) * 2011-10-06 2013-04-16 엘지이노텍 주식회사 멀티뷰 카메라를 이용한 주차 보조 장치 및 방법
TWI535587B (zh) * 2012-11-14 2016-06-01 義晶科技股份有限公司 利用觸控面板來控制車用影像之顯示的方法及其車用影像系統
US9430046B2 (en) * 2014-01-16 2016-08-30 Denso International America, Inc. Gesture based image capturing system for vehicle
JP2015193280A (ja) * 2014-03-31 2015-11-05 富士通テン株式会社 車両制御装置及び車両制御方法
KR102263723B1 (ko) * 2014-11-12 2021-06-11 현대모비스 주식회사 어라운드 뷰 모니터 시스템 및 그 제어방법
CN104554057A (zh) * 2014-12-24 2015-04-29 延锋伟世通电子科技(上海)有限公司 基于视觉的集成车载影音娱乐功能的主动安全系统
FR3033117B1 (fr) * 2015-02-20 2017-02-17 Peugeot Citroen Automobiles Sa Procede et dispositif pour le partage d’images a partir d’un vehicule
CN105128744A (zh) * 2015-09-18 2015-12-09 浙江吉利汽车研究院有限公司 一种立体360度全景影像系统及其实现方法
KR101795180B1 (ko) * 2015-12-11 2017-12-01 현대자동차주식회사 페일 세이프 기능을 갖는 차량 측후방 모니터링 장치 및 방법
CN108297790A (zh) * 2017-01-12 2018-07-20 国堡交通器材股份有限公司 适用于倒车显影的倒车辅助线调整系统及其方法
TWI623453B (zh) * 2017-02-02 2018-05-11 國堡交通器材股份有限公司 適用於倒車顯影的倒車輔助線調整系統及其方法
KR102259740B1 (ko) * 2017-12-04 2021-06-03 동국대학교 산학협력단 제스처 분석에 기반을 둔 차량의 이미지 처리 장치 및 방법
CN110001522A (zh) * 2018-01-04 2019-07-12 无敌科技股份有限公司 倒车影像显示的控制与图像处理系统及其方法
TWI702577B (zh) * 2019-07-10 2020-08-21 中華汽車工業股份有限公司 行車輔助影像產生方法及系統
CN111186378B (zh) * 2020-01-15 2022-06-14 宁波吉利汽车研究开发有限公司 一种泊车影像控制方法、装置、设备和存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001339715A (ja) * 2000-05-25 2001-12-07 Matsushita Electric Ind Co Ltd 運転支援装置
JP2005178508A (ja) * 2003-12-18 2005-07-07 Denso Corp 周囲情報表示装置
JP2009100180A (ja) * 2007-10-16 2009-05-07 Denso Corp 車両後方監視装置
JP2010221980A (ja) * 2009-03-25 2010-10-07 Aisin Seiki Co Ltd 車両用周辺監視装置
JP2011151446A (ja) * 2010-01-19 2011-08-04 Fujitsu Ten Ltd 画像処理装置、画像処理システム、および、画像処理方法
JP2011199501A (ja) * 2010-03-18 2011-10-06 Aisin Seiki Co Ltd 画像表示装置
JP2013096881A (ja) * 2011-11-02 2013-05-20 Denso Corp 電流検出装置

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2410741A1 (en) * 1999-04-16 2012-01-25 Panasonic Corporation Image processing apparatus and monitoring system
US6411867B1 (en) * 1999-10-27 2002-06-25 Fujitsu Ten Limited Vehicle driving support system, and steering angle detection device
US6917693B1 (en) * 1999-12-20 2005-07-12 Ford Global Technologies, Llc Vehicle data acquisition and display assembly
JP3773433B2 (ja) * 2000-10-11 2006-05-10 シャープ株式会社 移動体の周囲監視装置
KR100866450B1 (ko) * 2001-10-15 2008-10-31 파나소닉 주식회사 차량 주위 감시 장치 및 그 조정 방법
JP4855654B2 (ja) * 2004-05-31 2012-01-18 ソニー株式会社 車載装置、車載装置の情報提供方法、車載装置の情報提供方法のプログラム及び車載装置の情報提供方法のプログラムを記録した記録媒体
JP4899806B2 (ja) * 2006-11-08 2012-03-21 トヨタ自動車株式会社 情報入力装置
JP5380941B2 (ja) * 2007-10-01 2014-01-08 日産自動車株式会社 駐車支援装置及び方法
US9658765B2 (en) * 2008-07-31 2017-05-23 Northrop Grumman Systems Corporation Image magnification system for computer interface
KR20100091434A (ko) * 2009-02-10 2010-08-19 삼성전자주식회사 디지털 영상 처리장치 및 그 제어방법
JP5696872B2 (ja) * 2010-03-26 2015-04-08 アイシン精機株式会社 車両周辺監視装置
US9264672B2 (en) * 2010-12-22 2016-02-16 Magna Mirrors Of America, Inc. Vision display system for vehicle
US20130204457A1 (en) * 2012-02-06 2013-08-08 Ford Global Technologies, Llc Interacting with vehicle controls through gesture recognition

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001339715A (ja) * 2000-05-25 2001-12-07 Matsushita Electric Ind Co Ltd 運転支援装置
JP2005178508A (ja) * 2003-12-18 2005-07-07 Denso Corp 周囲情報表示装置
JP2009100180A (ja) * 2007-10-16 2009-05-07 Denso Corp 車両後方監視装置
JP2010221980A (ja) * 2009-03-25 2010-10-07 Aisin Seiki Co Ltd 車両用周辺監視装置
JP2011151446A (ja) * 2010-01-19 2011-08-04 Fujitsu Ten Ltd 画像処理装置、画像処理システム、および、画像処理方法
JP2011199501A (ja) * 2010-03-18 2011-10-06 Aisin Seiki Co Ltd 画像表示装置
JP2013096881A (ja) * 2011-11-02 2013-05-20 Denso Corp 電流検出装置

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016012895A (ja) * 2014-06-30 2016-01-21 ダイハツ工業株式会社 車両周辺表示装置
JP2017004338A (ja) * 2015-06-12 2017-01-05 クラリオン株式会社 表示装置
JP2016199266A (ja) * 2016-07-20 2016-12-01 株式会社Jvcケンウッド 表示機能付きミラー装置および表示切替方法
JP2018002152A (ja) * 2017-10-12 2018-01-11 株式会社Jvcケンウッド 表示機能付きミラー装置および表示切替方法
JP2020170505A (ja) * 2019-04-04 2020-10-15 株式会社デンソー 車両のブラックボックス統合制御システム

Also Published As

Publication number Publication date
TWI517992B (zh) 2016-01-21
TW201418072A (zh) 2014-05-16
CN103809876A (zh) 2014-05-21
US20140136054A1 (en) 2014-05-15
KR101481681B1 (ko) 2015-01-12
KR20140061219A (ko) 2014-05-21

Similar Documents

Publication Publication Date Title
JP2014097781A (ja) 車両用画像システムおよび車両用画像のための表示制御方法
US9471151B2 (en) Display and method capable of moving image
JP5860835B2 (ja) タッチパネルを用いて車両画像表示の制御を行う方法およびその車両画像システム
JP6275396B2 (ja) 仮想カメラを対話形式で制御するシステムおよび方法
JP2009239674A (ja) 車両周辺表示装置
WO2014140827A2 (en) Systems and methods for proximity sensor and image sensor based gesture detection
KR102570780B1 (ko) 화상 처리 장치, 이동 장치 및 방법, 그리고 프로그램
JP5471141B2 (ja) 駐車支援装置及び駐車支援方法
KR101487161B1 (ko) 드래그 앤드 드롭을 통한 차량의 주차지원 방법
JP7077615B2 (ja) 駐車制御方法及び駐車制御装置
JP6730613B2 (ja) 俯瞰映像生成装置、俯瞰映像生成システム、俯瞰映像生成方法およびプログラム
JP5067576B2 (ja) 表示制御システム、表示制御方法、及び表示制御プログラム
JP5977130B2 (ja) 画像生成装置、画像表示システム、および、画像生成方法
JP5476216B2 (ja) 車両用周囲監視装置
KR20170011817A (ko) 영상 처리 장치 및 그 동작 방법
JP2012166689A (ja) 運転支援装置
JP2012091625A (ja) 運転支援システム、運転支援方法および運転支援プログラム
JP6054738B2 (ja) カメラモジュール、カメラシステムおよび画像表示方法
KR101659606B1 (ko) 뒷바퀴 위치 표시 차량 후진 영상 시스템의 영상 표시 방법
JP6523801B2 (ja) 画像処理装置および画像処理方法
JP2018142882A (ja) 俯瞰映像生成装置、俯瞰映像生成システム、俯瞰映像生成方法およびプログラム
JP2018142883A (ja) 俯瞰映像生成装置、俯瞰映像生成システム、俯瞰映像生成方法およびプログラム
JP6927167B2 (ja) 電子制御装置及び電子制御方法
JP2012030796A (ja) 車両用駐車支援装置および映像表示方法
JP6644264B2 (ja) 俯瞰映像生成装置、俯瞰映像生成システム、俯瞰映像生成方法およびプログラム

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140507

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20140610

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140626

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140807

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140826