JP6045796B2 - 映像処理装置、映像処理方法、および映像表示システム - Google Patents

映像処理装置、映像処理方法、および映像表示システム Download PDF

Info

Publication number
JP6045796B2
JP6045796B2 JP2012040695A JP2012040695A JP6045796B2 JP 6045796 B2 JP6045796 B2 JP 6045796B2 JP 2012040695 A JP2012040695 A JP 2012040695A JP 2012040695 A JP2012040695 A JP 2012040695A JP 6045796 B2 JP6045796 B2 JP 6045796B2
Authority
JP
Japan
Prior art keywords
camera
video
moving body
distance
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012040695A
Other languages
English (en)
Other versions
JP2013176024A (ja
Inventor
理洋 森島
理洋 森島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2012040695A priority Critical patent/JP6045796B2/ja
Priority to US14/381,074 priority patent/US10118566B2/en
Priority to PCT/JP2013/001176 priority patent/WO2013128917A1/ja
Priority to EP13754749.3A priority patent/EP2822273B1/en
Publication of JP2013176024A publication Critical patent/JP2013176024A/ja
Application granted granted Critical
Publication of JP6045796B2 publication Critical patent/JP6045796B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/304Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images
    • B60R2300/305Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images merging camera image with lines or icons
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/806Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for aiding parking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2621Cameras specially adapted for the electronic generation of special effects during image pickup, e.g. digital cameras, camcorders, video cameras having integrated special effects capability

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Mechanical Engineering (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Traffic Control Systems (AREA)
  • Studio Circuits (AREA)
  • Image Processing (AREA)

Description

本発明は、映像処理装置、映像処理方法、および映像表示システムに関するものである。より詳細には、本発明は、移動体に取り付けられたカメラにより撮影された映像を処理する映像処理装置、映像処理方法、および当該映像処理装置を含む映像表示システムに関するものである。
近年、自動車に車載カメラを設置して撮影した映像を、車内に設置したディスプレイ等の表示部に表示することにより、運転者の安全確認などを補助する技術が知られている。
例えば、自動車の前方の先端付近にカメラを設置して、自動車の前方すなわち進行方向を撮影した映像を車内の運転者に示すことにより、見通しの悪い道路から交差点に進入する際などの安全性を高めようとする技術がある。また、例えば、自動車の後方を撮影できる位置にカメラを設置して、自動車の後方を中心とする映像を車内の運転者に示すことにより、運転者が自動車を後進させる際の安全性を高めようとする技術もある。
このような技術には、一般的に広角撮影が可能なカメラ、すなわち広角レンズなどの画角の広いレンズを搭載したカメラが採用されることが多い(例えば、特許文献1参照)。これは、広角撮影可能なカメラで撮影された映像の方が、当該映像を表示部に表示した際に、運転者が一画面で視認できる範囲が広くなる等の理由によるものである。
特開2006−311222号公報
しかしながら、上記特許文献1からも明らかなように、車載カメラとして採用される広角撮影可能なカメラで撮影した映像は、通常、映像の中心から外側に向かって徐々に歪むようになる。
例えば、図12に示すように、自動車100の後方部分に設置した広角撮影可能なカメラ120によって、自動車100の後方の映像を撮影する場合について説明する。図12は、駐車場に停車している自動車および駐車場の周辺を上方から見た状態を表す図である。図12に示す例において、カメラ120は、両端に矢印を付した円弧で示すように、水平方向に180°程度の画角の映像を撮影可能である。図12に示す駐車場においては、自動車の駐車位置を表す白線300により、各車両が駐車すべき位置が示されている。また、この駐車場の周辺には、建物400が建っているとする。
図12に示すような状況で、カメラ120によって自動車100の後方を撮影したものを、車内に設置したディスプレイ等の表示部160に表示すると、図13に示すような映像になる。図13に示すように、白線300のうち実際には水平方向にまっすぐな部分は大きく湾曲し、画面の端に向かうに連れてその曲率も高くなっている。また、白線300のうち自動車100が後進する方向と平行である部分は、画面の端に向かうに連れて自動車100の後進方向との角度が大きくなっている。さらに、当該平行な部分同士は、実際には等間隔であるにもかかわらず、表示部160の表示上は等間隔になっていない。
一般的に、このようなカメラで撮影した映像は、中央部分はあまり歪みを含まないが、中央部分から遠ざかるにつれて歪みが大きくなり、映像端部においてはかなりの歪みを含むものとなる。このため、運転者は、このような歪みを含む映像による補助があっても、自車と他の物体との間の距離を把握するのが困難であるのみならず、自車が進行する方向を基準とした他の物体の方向を把握するのも困難である。
したがって、かかる事情に鑑みてなされた本発明の目的は、車載カメラにより広角撮影された映像において運転者が方向感覚および距離感を把握することができる映像処理装置、映像処理方法、および映像表示システムを提供することにある。
上記目的を達成する第1の観点に係る発明は、
移動体に取り付けられ、当該移動体の進行方向を広角撮影可能なカメラにより撮影された映像に所定の情報を重畳する映像処理装置であって、
前記カメラにより撮影された映像を出力している状態下において、当該映像における所定の位置が指示される入力を検出すると、前記カメラにより撮影された映像のうち当該指示された位置と前記移動体との間の距離に関する情報を重畳するように制御する制御部を備え、
前記制御部は、前記カメラのレンズ固有の歪みデータに基づいて前記距離を把握し、
前記所定の情報を、前記移動体からの距離が、前記カメラにより撮影された映像のうち前記指示された位置に等しくなる点を線状につないだ参照線として重畳するように制御し、
前記カメラにより撮影された映像を被写体と前記移動体との間の距離に応じて複数に分割した領域のそれぞれにおいては、同じ曲率の前記参照線を表示するように制御する。
また、前記制御部は、前記移動体が移動して前記カメラにより撮影される映像が変化するのに追従させて、前記参照線が前記カメラにより撮影された映像の歪みに応じた曲率になるように制御するのが好ましい。
また、前記カメラにより撮影される映像の座標における当該映像の被写体と前記移動体との間の距離を記憶する記憶部をさらに備え、
前記制御部は、前記記憶部に記憶された前記カメラにより撮影される映像の座標における当該映像の被写体と前記移動体との間の距離を読み出して、前記所定の情報を重畳するように制御するのが好ましい。
また、前記制御部は、前記所定の情報を、前記指示された位置における被写体と前記移動体との間の距離を数値で表した参照値として重畳するように制御するのが好ましい。
また、前記制御部は、前記入力が検出された位置に所定の物体が存在することが認識された場合、当該所定の物体の接地点付近かつ前記移動体に最も近い位置を基準として、前記所定の情報を重畳するように制御するのが好ましい。
また、前記制御部は、前記移動体が移動して前記カメラにより撮影される映像が変化するのに追従させて、前記重畳する所定の情報の位置を変化させるように制御するのが好ましい。
また、前記制御部は、前記指示された位置における被写体と前記移動体との間の距離に応じて、前記重畳する所定の情報の表示態様を変化させて重畳するように制御するのが好ましい。
また、前記制御部は、前記カメラにより撮影された映像に前記所定の情報を重畳する際に、前記移動体の進路を示唆するガイド線を重畳するように制御するのが好ましい。
また、前記制御部は、前記移動体のステアリングの舵角に応じて、前記ガイド線を変化させて重畳するように制御するのが好ましい。
また、タッチパネルにより構成される入力検出部を備え、
前記制御部は、前記映像における所定の位置が指示される入力を、前記入力検出部を介して検出するように制御するのが好ましい。
また、操作キーにより構成される入力検出部を備え、
前記制御部は、前記映像における所定の位置が指示される入力を、前記入力検出部を介して検出するように制御するのが好ましい。
また、前記カメラにより撮影された映像は、魚眼レンズを備えるカメラにより撮影された映像とするのが好ましい。
また、前記カメラにより撮影された映像は、複数のカメラにより撮影された映像を合成したものとするのが好ましい。
上記目的を達成する第2の観点に係る発明は、
移動体に取り付けられ、当該移動体の進行方向を広角撮影可能なカメラにより撮影された映像に所定の情報を重畳する映像処理方法であって、
前記カメラにより撮影された映像を出力している状態下において、当該映像における所定の位置が指示される入力を検出すると、前記カメラにより撮影された映像のうち当該指示された位置と前記移動体との間の距離に関する情報を重畳するように制御するステップを含み、
前記制御するステップでは、前記カメラのレンズ固有の歪みデータに基づいて前記距離を把握し、
前記所定の情報を、前記移動体からの距離が、前記カメラにより撮影された映像のうち前記指示された位置に等しくなる点を線状につないだ参照線として重畳するように制御し、
前記カメラにより撮影された映像を被写体と前記移動体との間の距離に応じて複数に分割した領域のそれぞれにおいては、同じ曲率の前記参照線を表示するように制御する
上記目的を達成する第3の観点に係る発明は、
移動体に取り付けられ、当該移動体の進行方向を広角撮影可能なカメラと、
前記カメラにより撮影された映像に所定の情報を重畳する制御部と、
前記カメラにより撮影された映像および前記所定の情報を表示する表示部と、
前記表示部に表示された映像における所定の位置が指示される入力を検出する入力検出部と、
を含む映像表示システムであって、
前記制御部は、前記表示部が前記カメラにより撮影された映像を表示している状態下において、当該映像における所定の位置が指示される入力を前記入力検出部が検出すると、前記カメラにより撮影された映像のうち当該指示された位置と前記移動体との間の距離に関する情報を重畳するように制御し、
前記制御部はさらに、前記カメラのレンズ固有の歪みデータに基づいて前記距離を把握し、
前記所定の情報を、前記移動体からの距離が、前記カメラにより撮影された映像のうち前記指示された位置に等しくなる点を線状につないだ参照線として重畳するように制御し、
前記カメラにより撮影された映像を被写体と前記移動体との間の距離に応じて複数に分割した領域のそれぞれにおいては、同じ曲率の前記参照線を表示するように制御する。
本発明の映像処理装置、映像処理方法、および映像表示システムによれば、運転者は、車載カメラにより広角撮影された映像において方向感覚および距離感を把握することができる。
本発明の第1実施形態に係る映像表示システムの概略構成を示す図である。 第1実施形態に係る移動体と被写体との関係を説明する図である。 第1実施形態に係るカメラにより撮影される映像の被写体と移動体との間の距離について説明する図である。 第1実施形態に係るカメラにより撮影される映像の座標における当該映像の被写体と移動体との間の距離の対応を表す図である。 第1実施形態においてカメラにより撮影された映像を表示した例を示す図である。 第1実施形態に係る参照線の例を示す図である。 第2実施形態においてカメラにより撮影された映像を表示した例を示す図である。 第2実施形態に係る参照線の例を示す図である。 第3実施形態においてカメラにより撮影された映像を表示した例を示す図である。 第3実施形態に係る参照値の例を示す図である。 本発明の実施形態の変形例に係る参照線の例を示す図である。 カメラを設置した自動車および駐車場を上方から見た図である。 広角撮影可能なカメラにより撮影した映像を示す図である。
以下、本発明の各実施形態について、図面を参照して説明する。
(第1実施形態)
図1は、本発明の第1実施形態に係る映像処理装置を含む映像表示システムの概略構成の例を示す図である。図1に示すように、本実施形態に係る映像表示システムは、カメラ12と、カメラ制御部14と、表示部16と、入力検出部60と、を含んで構成される。また、図1に示すように、本実施形態に係る映像処理装置40は、カメラ制御部14と、記憶部50と、を備えている。本実施形態に係る映像処理装置40は、例えば自動車などの移動体100に設置することを想定している。しかしながら、自動車以外の移動体に設置して使用することも当然可能である。
図1に示すように、本実施形態に係る映像表示システムにおいては、バス10に各種の機能を構成する要素が接続されている。バス10に接続された映像処理装置40は、カメラ制御部14を備え、カメラ制御部14にはカメラ12が接続されている。その他、バス10には、自動車に備えられた電子機器関連の要素のうち主なものとして、表示部16、イグニッションスイッチ18、舵角センサ20、ブレーキセンサ22、GPS24、ライト26、スピーカ28、制御部30、および入力検出部60などが接続される。以下の説明においては、特に、自動車を構成する各機能部のうち映像などの各種の情報が取得される要素、および映像などの各種の情報が出力される要素を中心に説明し、他の機能部を構成する要素は図示および説明を省略する。
カメラ12は、例えば魚眼レンズなどの画角の広いレンズを備え、広角撮影が可能である。カメラ12が撮影した映像は、映像処理装置40のカメラ制御部14に送られる。カメラ制御部14は、カメラ12が撮影した映像に、本実施形態に係る後述の所定の情報を重畳する処理が行われるように制御する他、カメラ12に関連する各種の制御を行う。例えば、図1においてカメラ12は1つの要素として示してあるが、カメラ12を複数設置することもできる。この場合、カメラ制御部14は、複数のカメラ12が連携するように制御を行う。そして、カメラ制御部14は、複数のカメラ12から送られる複数の映像を加工して合成してから、前記所定の情報を重畳する処理が行われるように制御する。
映像処理装置40は、カメラ12により撮影された映像にカメラ制御部14が前記所定の情報を重畳した映像を出力する。本実施形態において、映像処理装置40は、図1に示すように、カメラ制御部14を備えたユニットとして説明し、外部のカメラ12から映像を入力するものとして説明する。しかしながら、映像処理装置40は、カメラ制御部14、カメラ12、および記憶部60を含んで、全体としてカメラユニットを構成するものとしてもよい。
表示部16は、例えば液晶ディスプレイまたは有機ELディスプレイ等で構成し、各種の情報および映像などを表示する。例えば、自動車100の各種の車両情報を表示したり、GPS24を利用したナビゲーションシステムの画面を表示したりすることができる。本実施形態においては、表示部16は、映像処理装置40から出力された映像を表示する。
イグニッションスイッチ18は、移動体100のエンジンを始動したり停止したりするスイッチであるが、アクセサリをオンにすることで移動体100の多くの電子機器が通電するため、実質的には映像表示システムのメインスイッチのような働きをする。
舵角センサ20は、ステアリングの切れ角を検出するものである。ブレーキセンサ22は、移動体100のブレーキが作動しているか否か、およびブレーキの度合いなどを検出するものである。GPS24は、アンテナを介してGPS衛星からのGPS信号を受信することにより、現在地の情報を取得することができる。ライト26は、移動体100のヘッドライトおよびポジションランプなどを総称するものである。これらのヘッドライトおよびポジションランプなどの点灯/消灯の状況は、バス10側から知ることができる。スピーカ28は、カーステレオの音声を出力するのみならず、カーナビゲーションの音声ガイドおよび各種警告システムからの警報音なども出力する。
制御部30は、移動体100の電子制御に係る処理を制御するとともに、移動体100の各機能部を制御する。具体的には、制御部30は、例えばカーナビゲーションシステムなどが接続されるコンピュータとすることもできるが、その他の機能部が制御部30の機能を担うようにすることもできる。
記憶部50は、フラッシュメモリなどの任意のメモリによって構成することができる。本実施形態において、記憶部50は、後述するように、カメラ12により撮影される映像の座標における当該映像の被写体と移動体100との間の距離を記憶する。また、記憶部50は、各種の情報を記憶することができるものとして説明する。
入力検出部60は、移動体100の運転者などの操作者による操作入力を検出する。本実施形態において、入力検出部60は、例えばキーボードまたは専用コントローラなど、所定のキーやボタンなどの操作キーにより構成されるものとすることができる。しかしながら、以下の説明において、入力検出部60は、表示部16に表示された映像またはオブジェクトなどに操作者が直接触れるような入力を検出することができるタッチパネルにより構成されたものとして説明する。
次に、本実施形態に係る被写体と移動体100との関係について説明する。図2は、第1実施形態に係るカメラ12により撮影される映像の被写体と移動体100との関係を説明する図である。図2に示すように、本実施形態において、カメラ12は、例えば自動車としての移動体100における、その後方を撮影できる位置に設置される。また、本実施形態において、カメラ12は、移動体100の後方の路面および路面上に存在する物体などの映像を撮影する。したがって、本実施形態において、カメラ12により撮影される映像の「被写体」とは、通常、移動体100の後方の路面および路面上に存在する物体などを意味する。
図2においては、カメラ12により映像が撮影される被写体の領域を、移動体100の後方の領域Aとして示してある。この領域Aにおいて、例えば障害物などの物体が路面上に置かれていた場合、領域Aの路面のみならず当該物体も被写体としてカメラ12により映像が撮影される。このようにして、カメラ12により撮影された被写体の映像は、図1において説明した映像処理装置40に入力される。映像処理装置40は、当該被写体の映像を出力して、表示部16に表示することができる。一般的に、図2に示した表示部16は、移動体100の運転者が視認することができるように、移動体100の内部に設置される。
図2に示した例においては、主に後進する場合について説明するため、移動体100の後方を撮影できる位置にカメラ12を設置した例を示してある。しかしながら、本発明はこのような例に限定されるものではなく、移動体100が前進する場合のために、移動体100の前方を撮影できる位置にカメラ12を設置してもよい。
次に、第1実施形態に係るカメラ12により撮影される映像の被写体と移動体との間の距離について説明する。
上述したように、本実施形態において、カメラ12は広角撮影可能であるため、カメラ12によって撮影された映像は、一般的に歪みを含んだものとなる。したがって、カメラ12によって被写体を撮影した映像を表示部16に表示したとしても、表示部16上で直線状に見えるものは実際には直線状ではなかったり、表示部16上で所定の位置から等距離にある地点が実際には等距離ではなかったりすることがある。このため、移動体100の運転者が表示部16に表示された映像を参照したとしても、それだけでは、移動体100の相対的な方向感覚および距離感を正しく把握することは困難である。
そこで、本実施形態に係る映像処理装置40は、移動体100に取り付けられて移動体100の進行方向を広角撮影可能なカメラ12により撮影された映像に所定の情報を重畳する。ここで、本実施形態において「所定の情報」とは、後述するように、所定の参照線を意味する。この参照線により、移動体100の運転者は、移動体100の相対的な方向感覚および距離感を正しく把握することができる。
本実施形態では、このような参照線を付与するために、カメラ制御部14は、カメラ12のレンズに固有の歪みデータに基づいて、カメラ12により撮影される映像の座標における当該映像の被写体と移動体100との間の距離を予め把握しておく。すなわち、カメラ制御部14は、カメラ12により撮影されて表示部16に表示される映像の所定の座標(あるいはドットまたは画素など)において、撮影される映像の被写体と移動体100との間の距離の情報を予め記憶するなどして把握しておく。
図3は、表示部16に表示された映像において、所定の座標ごとに対応する領域で区切って示した図である。図3において、表示部16に表示された映像は網目状に表されているが、当該網目によって区切られた領域のそれぞれは、所定の座標ごとに対応する領域を表している。図3においては、説明のために、表示部16に表示された映像を網目状にして表したが、実際の表示部16の表示においては、図3に示すように映像を網目状に表示する必要はない。また、図3においては、図を簡略化するために、表示部16に表示された映像において、比較的低い解像度で(つまり粗く)所定の座標を示してある。実際には、表示部16に表示された映像において、例えば画素ごとの高い解像度で(つまり細かく)所定の座標を規定することもでき、また、いくつかの画素群ごとに所定の座標を規定するなど、任意の解像度とすることができる。
本実施形態においては、図3のように区切られた領域の座標ごとに、当該座標の位置に表示される被写体と移動体100との距離を、それぞれの座標について予め把握しておく。図4は、カメラ12により撮影される映像の座標における当該映像の被写体と移動体との間の距離の対応を表す図である。すなわち図4においては、図3で示した区切られた領域の座標に対応させて、当該座標の位置に表示される被写体と移動体100との距離を示してある。しかしながら、図の簡略化のために、図4は部分的に省略して示してある。
例えば、図3において最も左上の座標は、実際には移動体100から3m離れている点がカメラ12により撮影されて表示部16に映し出されているものとした場合、この座標に対応する図4における最も左上の座標(X,Y)=(0,0)には3000という値が与えられている。すなわち、図3において左上の座標に対応し、当該座標に表示される映像の被写体は移動体100から3000mm離れていることが図4における座標(X,Y)=(0,0)を参照することで把握できる。また、同様に、図4において最も右下の座標(X,Y)=(639,479)は、図3においても最も右下の座標に対応し、0という値が付与されている。すなわち、当該座標に表示される映像の被写体は移動体100から0mm離れていることを表している。この場合、図3において右下の座標に表示される被写体は、実際には移動体100からの距離がゼロであることを意味する。図4から分かるように、カメラ12によって撮影された映像は歪みを含んだものとなるため、同じY座標の複数の点同士を比較しても、被写体から移動体100までの距離は必ずしも同じにならない。具体的には、同じY座標上の値であっても、X座標軸における中央(X=319)近辺の値が最も小さく、両端(X=0または639)近辺の値の方が大きい。
このように座標ごとに距離を表す数値は、カメラ12に搭載されたレンズに固有の歪みデータにより異なるものであり、また、カメラ12が移動体100に設置される水平方向の高さおよび角度など各種のパラメータにより異なる。したがって、図4に示すような対応表は、カメラ12に搭載されるレンズに応じて、さらにカメラが移動体100に設置される水平方向の高さおよび角度などのパラメータに応じて提供されるようにする。また、図4に示すような対応表は、それぞれ座標ごとの数値を、記憶部50に予め記憶しておくようにしてもよいし、あるいは記憶部50にそれぞれの場合についての計算式を記憶しておき、必要に応じて数値を算出するようにしてもよい。このように、本実施形態では、記憶部50は、カメラ12により撮影される映像の座標における当該映像の被写体と移動体100との間の距離を記憶する。
また、図3において表示部16に表示された映像には、移動体100が後進する際に運転者をガイドするための各種のガイド線が表示されている。例えば、ガイド線αは、移動体100から例えば1mのような比較的近くの間隔を表すことにより、表示ガイド線α付近に物体が表示されている場合には、当該物体は移動体100のすぐ近くに位置することを表す。また、ガイド線βRおよびβLは、移動体100の車幅を基準として、移動体の進行方向と平行な方向を表す。図3においては、ガイド線βRおよびβLは、破線により示してある。また、ガイド線γは、移動体100から例えば3mのような少し離れた間隔を表すことにより、表示ガイド線β付近に物体が表示されている場合に、当該物体は移動体100から少し離れた位置にあることを表す。
次に、本実施形態に係る映像処理装置40による処理の具体的を説明する。
図5は、図3と同様に、カメラ12により撮影された映像を表示部16に表示している状態を表している。図5に示すガイド線α、βR、βL、およびγは、図3で説明したのと同様である。また、図5に示す例においては、表示部16に表示しているカメラ12により撮影された映像には、通常の路面のみが被写体として表示されており、特に障害物などの物体は表示されていない。
このような状況において、カメラ制御部14は、タッチパネルである入力検出部60を介して、前記映像における所定の位置が指示される入力を検出するように制御する。
すなわち、カメラ制御部14は、運転者がタッチパネルである入力検出部60においていずれかの位置に接触する入力を検出するように制御する。
例えば、図5に示すように、運転者が表示部16に表示された映像の中央付近の位置P1において接触する入力が検出されたとする。このようにして、表示された映像における所定の位置が指示される入力を検出すると、カメラ制御部14は、図4に示したような対応に基づいて、当該位置の被写体と移動体100との間の距離を記憶部50から読み出す。そして、カメラ制御部14は、図4に示したような対応に基づいて、当該位置の被写体と移動体100との間の距離に等しい距離の他の座標の位置を読み出す。このようにして複数の座標の位置が読み出されたら、カメラ制御部14は、これらの点を線状につないだ参照線を、カメラ12により撮影された映像に重畳して出力するように制御する。この場合、カメラ制御部14は、記憶部50に記憶されたカメラ12により撮影される映像の座標における当該映像の被写体と移動体100との間の距離を読み出して、前記所定の情報を重畳するように制御する。
このようにして、表示部16においてカメラ12により撮影された映像に重畳される参照線は、運転者による入力が検出された位置と移動体100からの距離が等しくなる位置を示すことになる。図6(A)は、図5においてP1の位置に入力が検出され、当該位置を含めて当該位置と移動体100からの距離が等しくなる位置を示す点が結ばれた参照線δ1を示している。運転者は、この参照線δ1を視認することによって、映像上で自らが入力した位置と同じ距離だけ移動体100から離れた位置を、表示部16上で表示された映像全体において容易に認識することができる。
このように、本実施形態において、カメラ制御部14は、カメラ12により撮影された映像を出力している最中に、当該映像における所定の位置が指示される入力を検出すると、所定の情報を重畳するように制御する。ここで、所定の情報とは、カメラ12により撮影された映像の被写体と移動体100との間の距離に関する情報のうち当該指示された位置に対応する情報である。特に、本実施形態においては、前記所定の情報は、前記指示された位置における前記被写体と移動体100との間の距離が、カメラ12により撮影された映像の被写体と移動体100との間の距離に等しくなる点を線状につないだ参照線とする。具体的には、図5の場合には、P1の位置に対応する座標を図3の要領で特定し、当該特定ざれた座標に対応する図4の座標を確認する。さらに図4において、確認された値と同じ値を有する座標を抽出する。抽出された一連の座標について、対応する図5の点を結ぶことにより図6(A)に示す参照線δ1を得る。
図6(A)に示すような参照線δ1が表示された後で、運転者が移動体100を進行させると、カメラ12により撮影された映像は、当然ながら撮影箇所が進行方向に沿って移動するため、表示部16において、移動体100の進行に伴って移動する。この場合、運転者による入力が検出された位置も移動体100の進行に伴って移動するため、参照線δも移動させて表示した方が運転者の安全確認の補助に資すると考えられる。そこで、カメラ制御部14は、例えば運転者による入力が検出された位置が、図4に示したような座標上で移動したら、当該移動した座標についての参照線を重畳するように制御するのが好適である。
このようにすれば、図6(A)に示す状況から運転者が移動体100を進行させると、カメラ12により撮影される映像が表示部16において移動するとともに、図6(B)に示すように、参照線も参照線δ1からδ2に変化する。ここでは、移動体100が進行しているため、表示部16において、参照線は徐々に手前に近付いてくるように表示される。また、表示部16において、参照線δ1が表示される位置と、参照線δ2が表示される位置とでは歪みの度合いが異なるため、参照線δ1と参照線δ2とでは、曲率が異なる参照線として表示される。図6(B)に示す状況から運転者が移動体100をさらに進行させると、カメラ12により撮影される映像が表示部16において移動するとともに、図6(C)に示すように、参照線も参照線δ2からδ3に変化する。
このように、本実施形態において、カメラ制御部14は、移動体100が移動してカメラ12により撮影される映像が変化するのに追従させて、参照線がカメラ12により撮影された映像の歪みに応じた曲率になるように制御する。
さらに、このように参照線を変化させて表示する場合、当該参照線が移動体100に近付くにつれて、例えば参照線の色、線種、点滅の有無および態様など、表示態様を適宜変更させて、移動体100の運転者に注意を喚起するのが望ましい。例えば、図6(A)に示す状況において参照線は緑色であるが、図6(B)に示す状況において参照線は黄色に変化し、図6(C)に示す状況において参照線は赤色に変化させることができる。このように、カメラ制御部14は、前記指示された位置における前記被写体と移動体100との間の距離に応じて、前記所定の情報の表示態様を変化させて重畳するように制御するのが好ましい。
(第2実施形態)
次に、本発明の第2実施形態について説明する。
第2実施形態は、上述した第1実施形態と同様の基本原理に従って、入力検出部60が操作者の入力を検出する際の処理、および参照線が表示される位置を変更するものである。これらの相違点以外は、上述した第1実施形態と同様の構成により実施することができるため、第1実施形態と同じ内容になる説明は、適宜省略する。
本実施形態では、表示部16に表示された映像において所定の位置を指示する操作者の入力が入力検出部60により検出されたら、カメラ制御部14は、当該入力が検出された位置に、路面以外の障害物などの所定の物体が表示されていないか否かを判定する。ここで、表示部16に表示される映像において、路面以外の障害物などの所定の物体が存在するか否かは、例えば輪郭検出などによる種々の画像認識の技術を適用することができる。
表示部16において、路面以外に表示された障害物などの物体が高さを有する場合、当該物体の接地点以外の位置においては、当該物体から移動体100までの実際の距離と、当該物体周囲に表示される路面から移動体100までの実際の距離とが一致しない。したがって、本実施形態においては、障害物などの所定の物体の位置を操作者が指示する入力が検出されたら、当該所定の物体の接地点の位置に参照線を重畳する。
例えば、図7に示すように、運転者が表示部16に表示された映像のパイロン200の中腹あるいは先端部分の位置において接触する入力が検出されたとする。このような場合であっても、カメラ制御部14は、画像認識によりパイロン200が所定の物体であると認識すると、パイロン200が路面と接地する点付近であって移動体100に最も近い位置を基準として参照線を重畳する。ここで「パイロン200が路面と接地する点付近であって移動体100に最も近い位置」とは、物体認識された領域のうち、Y座標軸中の最下段かつX座標軸上の中央、つまり座標(X,Y)=(319,479)に最も近い座標(最近点)であることが好ましい。あるいはより単純に物体認識された領域の最下段の座標(最下点)であってもよい。
図8(A)は、図7においてパイロン200の位置に入力が検出され、パイロン200が路面と接地する点付近であって移動体100に最も近い位置(最近点あるいは最下点)を基準とした参照線δ4を示している。運転者は、この参照線δ4を視認することによって、映像上で自らが入力したパイロン200が接地している点であって移動体100に最も近い位置を、表示部16上で表示された映像全体において容易に認識することができる。
本実施形態においても、図8(A)に示す状況から運転者が移動体100を進行させると、カメラ12により撮影される映像が表示部16において移動するとともに、図8(B)に示すように、参照線も参照線δ4からδ5に変化させるのが望ましい。図8(B)に示す状況から運転者が移動体100をさらに進行させると、カメラ12により撮影される映像が表示部16において移動するとともに、図8(C)に示すように、参照線も参照線δ5からδ6に変化する。
このように、本実施形態において、カメラ制御部14は、入力が検出された位置に所定の物体が存在することが認識された場合、当該所定の物体の接地点付近かつ移動体100に最も近い位置を基準として、所定の情報を重畳するように制御する。
この場合、カメラ制御部14は、移動体100が移動してカメラ12により撮影される映像が変化するのに追従させて、前記所定の情報の位置を変化させて重畳するように制御するのが好ましい。また、本実施形態においても、カメラ制御部14は、前記指示された位置における前記被写体と移動体100との間の距離に応じて、前記所定の情報の表示態様を変化させて重畳するように制御するのが好ましい。
本実施形態において、操作者による入力が検出された位置に障害物などの所定の物体が認識されない場合、操作者は所定の物体ではなく路面までの位置を基準とした参照線の表示を所望しているとみなして、第1実施形態で説明した処理を行うことができる。
(第3実施形態)
次に、本発明の第3実施形態について説明する。
第3実施形態は、上述した第1実施形態と同様の基本原理に従って、表示部16に所定の参照線を表示する代わりに、所定の参照値を表示する。この相違点以外は、上述した第1実施形態と同様の構成により実施することができるため、第1実施形態と同じ内容になる説明は、適宜省略する。
本実施形態では、所定の位置を指示する操作者の入力が入力検出部60により検出されたら、カメラ制御部14は、図4に示したような対応に基づいて、当該位置の被写体と移動体100との間の距離を記憶部50から読み出す。このようにして入力が検出された座標における当該位置の被写体と移動体100との間の距離が読み出されたら、カメラ制御部14は、その距離の数値を参照値として、カメラ12により撮影された映像に重畳して出力するように制御する。この場合、カメラ制御部14は、当該参照値を、入力が検出された座標の真上または右側など、入力が検出された座標の直近に重畳するように制御するのが好ましい。また、入力が検出された位置の被写体と移動体100との間の距離の数値を記憶部50から読み出した際に、当該数値を例えば近似値にしたり、単位を変更したりして、移動体100の運転者のような操作者に見易い参照値にするのが好適である。
例えば、図9に示すように、運転者が表示部16に表示された位置P3において接触する入力が検出されたとする。すると、図10(A)に示すように、当該接触する入力が検出された位置を基準として、当該位置の被写体と移動体100との間の実際の距離(3m)が、参照値δ7として表示部16に表示される。運転者は、この参照δ7を視認することによって、映像上で自らが入力した位置が、移動体100からどれだけ離れているかを、表示部16上で容易に認識することができる。
本実施形態においても、図10(A)に示す状況から運転者が移動体100を進行させると、その進行速度に応じてカメラ12により撮影される映像が表示部16において移動するとともに、図10(B)に示すように、参照値もδ7からδ8(2m)に変化させるのが望ましい。すなわち、移動後の位置に対応する座標を図3と図4に示した例のようにして特定し、この特定された座標に対応する値を読み出すこととなる。同様に、図10(B)に示す状況から運転者が移動体100をさらに進行させると、カメラ12により撮影される映像が表示部16において移動するとともに、図10(C)に示すように、参照値もδ8からδ9(1m)に変化する。本実施形態においても、参照値を変化させて表示する場合、当該参照値が移動体100に近付くにつれて、例えば参照値の色、囲み表示の線種、点滅の有無および態様など、表示態様を適宜変更させて、移動体100の運転者に注意を喚起するのが望ましい。
このように、本実施形態において、カメラ制御部14は、所定の情報を、前記指示された位置における前記被写体と移動体100との間の距離を数値で表した参照値として重畳するように制御する。
上述した実施形態においては、カメラ12により撮影された映像は、魚眼レンズ等の画角の広いレンズを備える1つのカメラにより撮影された映像であることを想定して説明した。しかしながら、本発明は上述した実施形態に限定されるものではなく、カメラ12により撮影された映像が、複数のカメラ12により撮影された映像を合成したものとすることもできる。
このように、複数のカメラ12により撮影された映像を組み合わせて合成すると、当該組み合わせた部分は、撮影した映像がなめらかに合成されないことも想定される。本実施形態によれば、このような合成の態様に対応する参照線を演算したり予め記憶したりすることにより、運転者は、なめらかに合成されていない映像を表示部16に表示する場合においても、映像の歪み具合を容易に把握することができる。
以上説明したように、本発明は、カメラ12により撮影された映像に、単純な画像により構成される参照線または参照値を重畳する制御を行う。これにより、運転者は、車載カメラにより広角撮影された映像において方向感覚および距離感を把握することができる。
本発明を諸図面や実施例に基づき説明してきたが、当業者であれば本開示に基づき種々の変形や修正を行うことが容易であることに注意されたい。したがって、これらの変形や修正は本発明の範囲に含まれることに留意されたい。例えば、各部材、各手段、各ステップなどに含まれる機能などは論理的に矛盾しないように再配置可能である。また、本発明を方法の発明として実施する場合にも、複数の手段やステップなどを1つに組み合わせたり、或いは分割したりすることが可能である。
また、上述した実施形態においては、カメラ制御部14が、取得したカメラ12の映像に参照線が重畳されて出力される処理が行われるように制御を行った。この場合には、カメラ制御部14から出力される映像のデータは、すでに参照線の画像データが重畳された状態で出力させる。しかしながら、本発明は、上述した実施形態に限定されるものではなく、例えば、カメラ制御部14は、カメラ12が撮影した映像をそのまま出力してもよい。この場合、例えば制御部30が、取得したカメラ12の映像に参照線が重畳されて出力される処理が行われるように制御を行うようにすることができる。
また、上述した第1および第2実施形態では、図6および図8の説明において、移動体100が進行する際、映像が表示部16において移動するとともに参照線も移動する態様について説明した。この場合、参照線は、移動するたびに、図4に示すような対応表から被写体と移動体100との間の距離を読み出すことにより、新たな参照線として書き換えることを想定して説明した。このような処理を例えば参照線が1画素移動するたびに行うとすると、映像処理装置40の処理速度があまり速くない場合には、処理負荷が高くなることも想定される。
したがって、上述した第1および第2実施形態において、表示部16において映像が移動するとともに参照線も移動させる場合、所定の範囲の移動であれば、参照線の書き換えを行わずに、同じ曲率の参照線を単に移動させる処理とすることもできる。この場合、例えば図11に示すように、表示部16に表示される映像を例えば領域(1)から(7)などのいくつかの領域に分割することより、それぞれの領域内においては、参照線の書き換えを行わないようにする。それぞれの領域内においては、当該領域内で最初に重畳するために生成した参照線を表示した後そのまま移動させるか、または当該領域内で予め用意した曲率の参照線を表示した後そのまま移動させる。そして、ある領域から次の領域にまたがった際に、当該次の領域内で最初に重畳するための参照線を生成するか、または当該次の領域内で予め用意した曲率の参照線を表示する。
このように、本発明において、カメラ制御部14は、カメラ12により撮影された映像を被写体と移動体100との間の距離に応じて複数に分割した領域のそれぞれにおいては、同じ曲率の参照線を表示するように制御してもよい。このようにすれば、カメラ制御部14および/または制御部30を中心とする各機能部の処理負荷を低減させる効果が期待できる。
さらに、上述した各実施形態において、図3および図5において説明したようなガイド線α、β、γ等は、移動体100が進行する方向などの基準となる線として示したが、本発明において、このようなガイド線は必須のものではなく、表示部16に表示しないようにすることもできる。
また、上述した各実施形態において、これらのガイド線を重畳させて表示部16に表示する際には、移動体100のステアリングが操作されるのに応じて、表示部16においてガイド線を変化させることもできる。例えば図5においては、移動体100がまっすぐに進行することを想定して、ガイド線βRおよびβLを表示してある。しかしながら、例えば運転者が移動体100を後進させつつ右または左に曲がる場合、これらのガイド線ガイド線βRおよびβLは、移動体100が曲がる方向に向かって方向および曲率などを変更させて表示することもできる。
このように、本発明において、カメラ制御部14は、カメラ12により撮影された映像に前記所定の情報を重畳する際に、移動体100の進路を示唆するガイド線を重畳するように制御することもできる。また、この場合において、カメラ制御部14は、移動体100のステアリングの舵角に応じて、前記ガイド線を変化させて重畳するように制御することもできる。
10 バス
12 カメラ
14 カメラ制御部
16 表示部
18 イグニッションスイッチ
20 舵角センサ
22 ブレーキセンサ
24 GPS
26 ライト
28 スピーカ
30 制御部
40 映像処理装置
50 記憶部
60 入力検出部
100 移動体(自動車)

Claims (15)

  1. 移動体に取り付けられ、当該移動体の進行方向を広角撮影可能なカメラにより撮影された映像に所定の情報を重畳する映像処理装置であって、
    前記カメラにより撮影された映像を出力している状態下において、当該映像における所定の位置が指示される入力を検出すると、前記カメラにより撮影された映像のうち当該指示された位置と前記移動体との間の距離に関する情報を重畳するように制御する制御部を備え、
    前記制御部は、前記カメラのレンズ固有の歪みデータに基づいて前記距離を把握し、
    前記所定の情報を、前記移動体からの距離が、前記カメラにより撮影された映像のうち前記指示された位置に等しくなる点を線状につないだ参照線として重畳するように制御し、
    前記カメラにより撮影された映像を被写体と前記移動体との間の距離に応じて複数に分割した領域のそれぞれにおいては、同じ曲率の前記参照線を表示するように制御する、映像処理装置。
  2. 前記制御部は、前記移動体が移動して前記カメラにより撮影される映像が変化するのに追従させて、前記参照線が前記カメラにより撮影された映像の歪みに応じた曲率になるように制御する、請求項に記載の映像処理装置。
  3. 前記カメラにより撮影される映像の座標における当該映像の被写体と前記移動体との間の距離を記憶する記憶部をさらに備え、
    前記制御部は、前記記憶部に記憶された前記カメラにより撮影される映像の座標における当該映像の被写体と前記移動体との間の距離を読み出して、前記所定の情報を重畳するように制御する、請求項1又は2に記載の映像処理装置。
  4. 前記制御部は、前記所定の情報を、前記指示された位置における被写体と前記移動体との間の距離を数値で表した参照値として重畳するように制御する、請求項1に記載の映像処理装置。
  5. 前記制御部は、前記入力が検出された位置に所定の物体が存在することが認識された場合、当該所定の物体の接地点付近かつ前記移動体に最も近い位置を基準として、前記所定の情報を重畳するように制御する、請求項1からのいずれか1項に記載の映像処理装置。
  6. 前記制御部は、前記移動体が移動して前記カメラにより撮影される映像が変化するのに追従させて、前記重畳する所定の情報の位置を変化させるように制御する、請求項1からのいずれか1項に記載の映像処理装置。
  7. 前記制御部は、前記指示された位置における被写体と前記移動体との間の距離に応じて、前記重畳する所定の情報の表示態様を変化させて重畳するように制御する、請求項に記載の映像処理装置。
  8. 前記制御部は、前記カメラにより撮影された映像に前記所定の情報を重畳する際に、前記移動体の進路を示唆するガイド線を重畳するように制御する、請求項1からのいずれか1項に記載の映像処理装置。
  9. 前記制御部は、前記移動体のステアリングの舵角に応じて、前記ガイド線を変化させて重畳するように制御する、請求項に記載の映像処理装置。
  10. タッチパネルにより構成される入力検出部を備え、
    前記制御部は、前記映像における所定の位置が指示される入力を、前記入力検出部を介して検出するように制御する、請求項1からのいずれか1項に記載の映像処理装置。
  11. 操作キーにより構成される入力検出部を備え、
    前記制御部は、前記映像における所定の位置が指示される入力を、前記入力検出部を介して検出するように制御する、請求項1からのいずれか1項に記載の映像処理装置。
  12. 前記カメラにより撮影された映像は、魚眼レンズを備えるカメラにより撮影された映像である、請求項1から11のいずれか1項に記載の映像処理装置。
  13. 前記カメラにより撮影された映像は、複数のカメラにより撮影された映像を合成したものである、請求項1から12のいずれか1項に記載の映像処理装置。
  14. 移動体に取り付けられ、当該移動体の進行方向を広角撮影可能なカメラにより撮影された映像に所定の情報を重畳する映像処理方法であって、
    前記カメラにより撮影された映像を出力している状態下において、当該映像における所定の位置が指示される入力を検出すると、前記カメラにより撮影された映像のうち当該指示された位置と前記移動体との間の距離に関する情報を重畳するように制御するステップを含み、
    前記制御するステップでは、前記カメラのレンズ固有の歪みデータに基づいて前記距離を把握し、
    前記所定の情報を、前記移動体からの距離が、前記カメラにより撮影された映像のうち前記指示された位置に等しくなる点を線状につないだ参照線として重畳するように制御し、
    前記カメラにより撮影された映像を被写体と前記移動体との間の距離に応じて複数に分割した領域のそれぞれにおいては、同じ曲率の前記参照線を表示するように制御する、映像処理方法。
  15. 移動体に取り付けられ、当該移動体の進行方向を広角撮影可能なカメラと、
    前記カメラにより撮影された映像に所定の情報を重畳する制御部と、
    前記カメラにより撮影された映像および前記所定の情報を表示する表示部と、
    前記表示部に表示された映像における所定の位置が指示される入力を検出する入力検出部と、
    を含む映像表示システムであって、
    前記制御部は、前記表示部が前記カメラにより撮影された映像を表示している状態下において、当該映像における所定の位置が指示される入力を前記入力検出部が検出すると、前記カメラにより撮影された映像のうち当該指示された位置と前記移動体との間の距離に関する情報を重畳するように制御し、
    前記制御部はさらに、前記カメラのレンズ固有の歪みデータに基づいて前記距離を把握し、
    前記所定の情報を、前記移動体からの距離が、前記カメラにより撮影された映像のうち前記指示された位置に等しくなる点を線状につないだ参照線として重畳するように制御し、
    前記カメラにより撮影された映像を被写体と前記移動体との間の距離に応じて複数に分割した領域のそれぞれにおいては、同じ曲率の前記参照線を表示するように制御する、映像表示システム。
JP2012040695A 2012-02-27 2012-02-27 映像処理装置、映像処理方法、および映像表示システム Active JP6045796B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2012040695A JP6045796B2 (ja) 2012-02-27 2012-02-27 映像処理装置、映像処理方法、および映像表示システム
US14/381,074 US10118566B2 (en) 2012-02-27 2013-02-27 Image processing device, image processing method, and image display system
PCT/JP2013/001176 WO2013128917A1 (ja) 2012-02-27 2013-02-27 映像処理装置、映像処理方法、および映像表示システム
EP13754749.3A EP2822273B1 (en) 2012-02-27 2013-02-27 Video processing device, video processing method, and video display system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012040695A JP6045796B2 (ja) 2012-02-27 2012-02-27 映像処理装置、映像処理方法、および映像表示システム

Publications (2)

Publication Number Publication Date
JP2013176024A JP2013176024A (ja) 2013-09-05
JP6045796B2 true JP6045796B2 (ja) 2016-12-14

Family

ID=49082129

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012040695A Active JP6045796B2 (ja) 2012-02-27 2012-02-27 映像処理装置、映像処理方法、および映像表示システム

Country Status (4)

Country Link
US (1) US10118566B2 (ja)
EP (1) EP2822273B1 (ja)
JP (1) JP6045796B2 (ja)
WO (1) WO2013128917A1 (ja)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6255706B2 (ja) * 2013-04-22 2018-01-10 富士通株式会社 表示制御装置、表示制御方法、表示制御プログラムおよび情報提供システム
JP6244954B2 (ja) 2014-02-06 2017-12-13 富士通株式会社 端末装置、情報処理装置、表示制御方法、及び表示制御プログラム
DE102014008578B4 (de) * 2014-06-12 2016-02-18 Audi Ag Verfahren zur Ermittlung von Positionsdaten zur Nutzung beim Betrieb eines Fahrzeugsystems eines Kraftfahrzeugs und Positionsdatenermittlungs- und-verteilssystem
KR102190891B1 (ko) * 2014-09-22 2020-12-14 에스엘 주식회사 차량의 주변 감시 장치 및 방법
CN104822042B (zh) * 2015-03-03 2018-07-06 广东欧珀移动通信有限公司 一种基于摄像头的行人安全检测方法及装置
US9505404B2 (en) * 2015-04-10 2016-11-29 Jaguar Land Rover Limited Collision avoidance system
US10144351B2 (en) * 2015-05-29 2018-12-04 Nissan Motor Co., Ltd. Information presentation system
JP2017154530A (ja) * 2016-02-29 2017-09-07 株式会社オートネットワーク技術研究所 車載機及び車両保安システム
KR101809919B1 (ko) 2016-09-26 2017-12-20 주식회사 와이즈오토모티브 운전 보조 장치 및 방법
JP6747369B2 (ja) * 2016-09-26 2020-08-26 株式会社Jvcケンウッド 表示制御装置、表示制御方法及びプログラム
JP7092688B2 (ja) * 2017-02-17 2022-06-28 住友重機械工業株式会社 作業機械用周辺監視システム
JP6349558B1 (ja) * 2017-05-12 2018-07-04 パナソニックIpマネジメント株式会社 撮像システム及び表示システム
WO2020105698A1 (ja) * 2018-11-22 2020-05-28 ソニーセミコンダクタソリューションズ株式会社 画像処理装置、カメラシステム及び画像処理方法
CN110855883B (zh) * 2019-11-05 2021-07-20 浙江大华技术股份有限公司 一种图像处理系统、方法、装置设备及存储介质
DE102020107016A1 (de) * 2020-03-13 2021-09-16 Mekra Lang Gmbh & Co. Kg Verfahren zum Verifizieren eines indirekten Sichtsystems
JP2024062176A (ja) * 2022-10-24 2024-05-09 株式会社クボタ 作業機の遠隔操作支援システム、遠隔装置

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3600314B2 (ja) * 1995-05-19 2004-12-15 本田技研工業株式会社 車両の外部環境認識装置
JP2003141693A (ja) * 2001-11-01 2003-05-16 Neptune:Kk 車両安全確認装置
ES2391556T3 (es) * 2002-05-03 2012-11-27 Donnelly Corporation Sistema de detección de objetos para vehículo
JP2006311222A (ja) 2005-04-28 2006-11-09 Auto Network Gijutsu Kenkyusho:Kk 車両周辺視認装置
JP4815993B2 (ja) * 2005-10-19 2011-11-16 アイシン・エィ・ダブリュ株式会社 駐車支援方法及び駐車支援装置
JP2006330745A (ja) * 2006-06-28 2006-12-07 Sony Corp 電子地図表示装置、電子地図表示方法およびナビゲーション装置
WO2009036176A1 (en) 2007-09-11 2009-03-19 Magna Electronics Imaging system for vehicle
JP5141275B2 (ja) * 2008-02-05 2013-02-13 日産自動車株式会社 車両用画像処理装置及び車両用画像処理方法
ATE537032T1 (de) * 2008-10-28 2011-12-15 Volkswagen Ag Parkassistenzsystem und verfahren zum betreiben eines parkassistenzsystems für ein kraftfahrzeug
JP2010187163A (ja) * 2009-02-12 2010-08-26 Mitsubishi Plastics Inc 電機音響変換器用振動板及び該振動板用積層フィルム
JP5500877B2 (ja) * 2009-06-15 2014-05-21 アルパイン株式会社 車載用画像表示装置および画像のトリミング方法
US20130002861A1 (en) 2010-06-07 2013-01-03 Tatsuya Mitsugi Camera distance measurement device
EP2481637B1 (en) * 2011-01-28 2014-05-21 Nxp B.V. Parking Assistance System and Method

Also Published As

Publication number Publication date
EP2822273A4 (en) 2015-11-04
EP2822273B1 (en) 2017-12-27
WO2013128917A1 (ja) 2013-09-06
US10118566B2 (en) 2018-11-06
JP2013176024A (ja) 2013-09-05
EP2822273A1 (en) 2015-01-07
US20150009285A1 (en) 2015-01-08

Similar Documents

Publication Publication Date Title
JP6045796B2 (ja) 映像処理装置、映像処理方法、および映像表示システム
EP2974909B1 (en) Periphery surveillance apparatus and program
JP6801787B2 (ja) 駐車支援方法及び駐車支援装置
JP5099451B2 (ja) 車両周辺確認装置
US10268905B2 (en) Parking assistance apparatus
EP2487906B1 (en) Control device and vehicle surrounding monitoring device
JP5212748B2 (ja) 駐車支援装置
JP5523448B2 (ja) 運転支援システム、情報表示装置、及び情報表示プログラム
JP4904997B2 (ja) 駐車支援方法及び駐車支援装置
JP7069548B2 (ja) 周辺監視装置
JP2007183877A (ja) 車両用運転支援装置及び俯瞰映像の表示方法
JP4910425B2 (ja) 駐車支援装置及び駐車支援方法
US20130038734A1 (en) Driving support apparatus
JP5516988B2 (ja) 駐車支援装置
WO2018070298A1 (ja) 表示制御装置
JP7067225B2 (ja) 車両用表示制御装置、車両用表示システム、車両用表示制御方法、およびプログラム
US11208147B2 (en) Parking assistance device, parking assistance method, and non-transitory computer readable medium
JP6876236B2 (ja) 表示制御装置
JP5309891B2 (ja) 駐車支援装置
JP7006460B2 (ja) 車両用表示制御装置、車両用表示システム、車両用表示制御方法、およびプログラム
JP2012166689A (ja) 運転支援装置
JP4677820B2 (ja) 予測進路表示装置および予測進路表示方法
JP6573218B2 (ja) 車両用画像表示装置及び設定方法
JP2021111854A (ja) 車両用電子ミラーシステム
US20220086368A1 (en) Vehicular display system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141015

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160404

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160719

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161019

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20161028

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161115

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161116

R150 Certificate of patent or registration of utility model

Ref document number: 6045796

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150