JP2009101718A - 映像表示装置及び映像表示方法 - Google Patents

映像表示装置及び映像表示方法 Download PDF

Info

Publication number
JP2009101718A
JP2009101718A JP2007272654A JP2007272654A JP2009101718A JP 2009101718 A JP2009101718 A JP 2009101718A JP 2007272654 A JP2007272654 A JP 2007272654A JP 2007272654 A JP2007272654 A JP 2007272654A JP 2009101718 A JP2009101718 A JP 2009101718A
Authority
JP
Japan
Prior art keywords
video
camera
positional relationship
cameras
relative positional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007272654A
Other languages
English (en)
Inventor
Kazunori Shimazaki
和典 嶋▲崎▼
Tomio Kimura
富雄 木村
Yutaka Nakajima
豊 中島
Masami Tomioka
雅巳 冨岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Industries Corp
Original Assignee
Toyota Industries Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Industries Corp filed Critical Toyota Industries Corp
Priority to JP2007272654A priority Critical patent/JP2009101718A/ja
Priority to EP08839973A priority patent/EP2200312A4/en
Priority to CN200880111644A priority patent/CN101828394A/zh
Priority to PCT/JP2008/068152 priority patent/WO2009051028A1/ja
Priority to US12/676,063 priority patent/US20100201810A1/en
Priority to KR1020107008238A priority patent/KR20100053694A/ko
Priority to TW097139821A priority patent/TW200926067A/zh
Publication of JP2009101718A publication Critical patent/JP2009101718A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/26Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view to the rear of the vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/301Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with other obstacle sensor information, e.g. using RADAR/LIDAR/SONAR sensors for estimating risk of collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/303Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using joined images, e.g. multiple camera images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/607Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective from a bird's eye viewpoint
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/806Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for aiding parking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30264Parking

Abstract

【課題】互いの相対位置関係が変化する複数のカメラを用いても、所定の視点からの映像を表示することができる映像表示装置及び映像表示方法を提供する。
【解決手段】固定カメラAによる撮影と移動カメラBによる撮影が行われ、相対位置算出部1により、移動体Uの位置情報を得るためのセンサから入力された検出信号に基づいて移動体Uの現在位置及び向きが把握されると共にこの移動体Uの現在位置及び向きと固定カメラAが設置されている所定の場所との比較により固定カメラAに対する移動カメラBの相対位置関係が算出される。この相対位置関係に基づいて固定カメラAによる映像と移動カメラBによる映像とが、映像合成部2により一つに合成され、仮想の視点Pからの合成映像がモニタ3に表示される。
【選択図】図1

Description

この発明は、映像表示装置及び映像表示方法に係り、特に複数のカメラからの映像を合成して表示する装置及び方法に関する。
特許文献1には、互いに異なる位置に配置された複数のカメラにより被写体を撮影し、これら複数のカメラにより得られた複数の画像を用いて、各カメラの位置とは異なる視点から見た仮想の撮像画像を生成するカメラシステムが提案されている。各カメラによる撮像画像中の被写体の3次元位置座標を得て、その座標に基づき任意の視点から見た画像が再構成される。
特開平9−114979号公報
しかしながら、特許文献1のシステムでは、それぞれ位置が固定された複数のカメラによる撮像画像を用いて視点の異なる仮想の画像を生成するため、例えば、駐車スペースに車両を駐車する際において、運転操作のしやすい俯瞰映像等の仮想の映像を生成しようとすると、駐車スペース側に位置が固定された複数のカメラを設置する必要が生じる。これでは、複数のカメラの設置場所を確保しなければならず、複数のカメラの設置の費用が嵩み、複数のカメラの設置に手間を要する、といった問題を来すこととなる。
近年、運転の安全性、操作性を高める目的で、車両の後方や側方を撮影するためのカメラを車両に搭載し、このカメラからの映像を、例えば車両後退時に運転席に配置されたモニタに表示するものが使用されつつある。
このような車両に搭載されたカメラを活用し、駐車スペース側に一つの固定カメラだけを設置して俯瞰映像等を生成することができれば、容易に且つ安価に駐車時における運転操作がしやすくなるが、車両の移動に伴って、車両に搭載されたカメラと駐車スペース側の固定カメラとの相対位置関係が変化するため、特許文献1のシステムでは、俯瞰映像等の生成が困難である。
この発明は、このような従来の問題点に鑑みてなされたものであり、互いの相対位置関係が変化する複数のカメラを用いても、所定の視点からの映像を表示することができる映像表示装置及び映像表示方法を提供することを目的とする。
この発明に係る映像表示装置は、互いの相対位置関係が変化する複数のカメラと、複数のカメラの互いの相対位置関係を算出する相対位置算出部と、相対位置算出部で算出された相対位置関係に基づいて複数のカメラからの映像を互いに合成することにより所定の視点からの映像を作成する映像合成部と、映像合成部で作成された映像を表示するモニタとを備えたものである。
複数のカメラとしては、少なくとも一つの移動カメラと少なくとも一つの固定カメラを用いることができる。あるいは、複数のカメラが、それぞれ移動カメラから構成されていてもよい。
また、少なくとも一つの特徴点を有する固定目標が予め所定の固定位置に設置され、相対位置算出部が、移動カメラにより撮影された固定目標の画像に基づいて固定目標を基準とした移動カメラの位置パラメータを算出し、算出された位置パラメータに基づいて他のカメラに対する移動カメラの相対位置関係を算出するように構成することもできる。この場合、固定目標としては、所定形状のマークを用いることができる。
映像合成部は、所定の視点からの映像として複数のカメラの視点とは異なる仮想の視点からの映像、例えば俯瞰映像を作成することができる。あるいは、映像合成部は、所定の視点からの映像として複数のカメラのうちいずれか一つのカメラの視点から見ると共に死角領域に映像を追加して映像を作成することもできる。
この発明に係る映像表示方法は、互いの相対位置関係が変化する複数のカメラの互いの相対位置関係を算出し、算出された相対位置関係に基づいて複数のカメラからの映像を互いに合成することにより所定の視点からの映像を作成し、作成された所定の視点からの映像を表示する方法である。
この発明によれば、相対位置算出部により複数のカメラの互いの相対位置関係が算出され、この相対位置関係に基づいて映像合成部により複数のカメラからの映像が互いに合成されるので、互いの相対位置関係が変化する複数のカメラを用いても、所定の視点からの映像を表示することが可能となる。
以下、この発明の実施の形態を添付図面に基づいて説明する。
実施の形態1
この発明の実施の形態1に係る映像表示装置の構成を図1に示す。予め所定の場所に固定カメラAが設置されると共に、この固定カメラAとは異なる場所に移動カメラBが配置されている。移動カメラBは、車両等の移動体Uに搭載されており、移動体Uと共に移動自在に構成されている。
移動体Uには、固定カメラAに対する移動カメラBの相対位置関係を算出する相対位置算出部1が接続され、相対位置算出部1と固定カメラA及び移動カメラBに映像合成部2が接続されている。さらに、映像合成部2にモニタ3が接続されている。
また、移動体Uは、自らの現在位置及び向き等の位置情報を得るための図示しないセンサを有しており、このセンサの検出信号が相対位置算出部1に入力されている。
次に、図2のフローチャートを参照して実施の形態1の作用について説明する。まず、ステップS1で、固定カメラAによる撮影が行われ、続くステップS2で、移動カメラBによる撮影が行われる。
さらに、ステップS3で、相対位置算出部1により固定カメラAに対する移動カメラBの相対位置関係が算出される。このとき、移動体Uの位置情報を得るためのセンサからの検出信号が相対位置算出部1に入力されているので、相対位置算出部1は、入力された検出信号に基づいて移動体Uの現在位置及び向きを把握することができる。そこで、この移動体Uの現在位置及び向きと固定カメラAが設置されている所定の場所とを比較することにより、相対位置算出部1は、固定カメラAに対する移動カメラBの相対位置関係を算出する。
このようにして固定カメラAと移動カメラBとの相対位置関係が算出されると、ステップS4で、映像合成部2により、この相対位置関係に基づいて固定カメラAによる映像と移動カメラBによる映像とが一つに合成され、合成映像として上方から下方を見下ろす俯瞰映像が作成される。
そして、ステップS5で、俯瞰映像がモニタ3に表示される。
なお、固定カメラAによる映像と移動カメラBによる映像との合成及び俯瞰映像の作成の例としては、特開平3−99952号公報が挙げられる。
また、移動体Uの位置情報を得るためのセンサとしては、移動体Uの移動位置及び向きを把握し得るものであればよく、例えば、車速センサまたは移動量センサとヨーレートセンサ、あるいは、GPSセンサとヨーレートセンサ、あるいは、移動体Uへの搭載位置を異ならせた2つのGPSセンサ等を用いることができる。
相対位置算出部1、映像合成部2及びモニタ3は、移動体Uに搭載することができる。この場合、固定カメラAと映像合成部2との間の接続は、有線によることもでき、あるいは、無線によることもできる。固定カメラAと映像合成部2との間を無線で接続する場合には、固定カメラAと映像合成部2にそれぞれ通信手段を備える必要がある。
また、相対位置算出部1、映像合成部2及びモニタ3を移動体Uに搭載せずに所定の場所に設置してもよい。この場合、移動体Uの位置情報を得るためのセンサと相対位置算出部1とが有線または無線で接続されると共に、固定カメラA及び移動カメラBと映像合成部2との間が有線または無線で接続される。
さらに、相対位置算出部1のみを移動体Uに搭載して映像合成部2及びモニタ3を所定の場所に設置する、あるいは相対位置算出部1と映像合成部2を移動体Uに搭載してモニタ3のみを所定の場所に設置することもできる。
実施の形態2
この発明の実施の形態2に係る映像表示装置の構成を図3に示す。この実施の形態2は、図1に示した実施の形態1の装置において、移動体Uが位置情報を得るためのセンサを有する代わりに、所定の固定位置に固定目標としてのマークMを予め設置しておき、移動カメラBにより撮影されたマークMの画像に基づいて相対位置算出部1が固定カメラAと移動カメラBとの相対位置関係を算出するように構成したものである。
図4に示されるように、相対位置算出部1は、移動カメラBに順次接続された画像処理手段4、位置パラメータ算出手段5及び相対位置特定手段6から構成されている。
また、固定目標としてのマークMは、固定カメラAに対して所定の位置関係を有する所定の場所に固設されており、固定カメラAに対するマークMの所定の位置関係は予め把握されているものとする。このマークMとしては、例えば図5に示されるように、4つの直角2等辺三角形を互いに当接させた正方形状の外形を有する図形を用いることができる。互いに隣接する直角2等辺三角形が異なる色で塗り分けられており、このマークMは、複数の辺の交点からなる5つの特徴点C1〜C5を有している。
上述したように固定カメラAに対するマークMの位置関係が予め把握されていれば、マークMを固定カメラAの視野外に配置してもよい。
この実施の形態2においても、図2に示したフローチャートのステップS1〜S5に従って、俯瞰映像等の合成映像がモニタ3に表示されるが、ステップS3における固定カメラAと移動カメラBとの相対位置関係の算出方法が実施の形態1とは異なっており、図6のフローチャートに示されるステップS6〜S8に従い、次のようにして相対位置関係の算出が行われる。
すなわち、まず、ステップS6で、相対位置算出部1の画像処理手段4が、移動カメラBにより撮影されたマークMの画像からマークMの5つの特徴点C1〜C5を抽出し、画像上におけるこれら特徴点C1〜C5の2次元座標をそれぞれ認識し取得する。
次に、ステップS7で、画像処理手段4により認識された特徴点C1〜C5のそれぞれの2次元座標に基づき、位置パラメータ算出手段5が、マークMを基準とした移動カメラBの3次元座標(x,y,z)、チルト角(伏せ角)、パン角(方向角)、スイング角(回転角)の6個のパラメータからなる位置パラメータを算出する。
ここで、位置パラメータ算出手段5による位置パラメータの算出方法を説明する。
まず、移動体U上の所定の箇所から路面に対して垂直に下ろした地面上の点を原点Oとし、水平方向にx軸及びy軸、鉛直方向にz軸を設定した路面座標系を想定すると共に、移動カメラBにより撮影された画像上にX軸とY軸を設定した画像座標系を想定する。
画像座標系におけるマークMの特徴点C1〜C5の座標値Xm及びYm(m=1〜5)は、路面座標系におけるマークMの特徴点C1〜C5の6個の位置パラメータすなわち座標値xm、ym及びzmと上述したチルト角(伏せ角)、パン角(方向角)、スイング角(回転角)の角度パラメータKn(n=1〜3)から、関数F及びGを用いて、
Xm=F(xm,ym,zm,Kn)+DXm
Ym=G(xm,ym,zm,Kn)+DYm
で表される。ここで、DXm及びDYmは関数F及びGを用いて算出された特徴点C1〜C5のX座標及びY座標と画像処理手段4で認識された特徴点C1〜C5の座標値Xm及びYmとの偏差である。
つまり5個の特徴点C1〜C5のX座標及びY座標をそれぞれ表すことにより、6個の位置パラメータ(xm,ym,zm,Kn)に対して計10個の関係式が作成される。
そこで、偏差DXm及びDYmの二乗和
S=Σ(DXm+DYm
を最小とするような位置パラメータ(xm,ym,zm,Kn)を求める。すなわちSを最小化する最適化問題を解く。公知の最適化法たとえばシンプレックス法や、最急降下法、ニュートン法、準ニュートン法などを用いることができる。
なお、算出しようとする位置パラメータ(xm,ym,zm,Kn)の個数「6」より多い関係式を作成して位置パラメータを決定しているので、精度よく位置パラメータ(xm,ym,zm,Kn)を得ることができる。
この実施の形態2では、6個の位置パラメータ(xm,ym,zm,Kn)に対して5個の特徴点C1〜C5により10個の関係式を作成したが、関係式の数は算出しようとする位置パラメータ(xm,ym,zm,Kn)の個数より多ければよく、最低3個の特徴点により6個の関係式を作成すれば、6個の位置パラメータ(xm,ym,zm,Kn)を算出することができる。
このようにして算出された移動カメラBの位置パラメータを用いて、ステップS8で、相対位置特定手段6は、固定カメラAに対する移動カメラBの相対位置関係を特定する。すなわち、位置パラメータ算出手段5で算出された位置パラメータに基づいて、移動カメラBとマークMとの相対位置関係が特定され、固定カメラAに対するマークMの所定の位置関係は予め把握されているため、さらに、移動カメラBと固定カメラAとの相対位置関係が特定される。
以上のようにして相対位置算出部1で算出された固定カメラAと移動カメラBとの相対位置関係は映像合成部2に送られ、映像合成部は、この相対位置関係に基づいて固定カメラAによる映像と移動カメラBによる映像とを一つに合成して俯瞰映像を作成し、モニタ3に表示する。
なお、この実施の形態2では、マークMを基準とした移動カメラBの3次元座標(x,y,z)、チルト角(伏せ角)、パン角(方向角)、スイング角(回転角)の6個のパラメータからなる位置パラメータを算出しているので、マークMが配置されている床面と移動体Uの現在位置の路面との間に段差や傾きが存在しても、マークMと移動カメラBとの相対位置関係、ひいては固定カメラAと移動カメラBとの相対位置関係を正確に特定して精度の高い俯瞰映像を作成することができる。
ただし、マークMが配置されている床面と移動体Uの現在位置の路面との間に傾きが存在しない場合には、少なくともマークMを基準とした移動カメラBの3次元座標(x,y,z)とパン角(方向角)の4個のパラメータからなる位置パラメータを算出すればマークMと移動カメラBの相対位置関係を特定することができる。この場合には、マークMの最低2個の特徴点の2次元座標により4個の関係式を作成すれば、4個の位置パラメータを求めることができるが、より多くの特徴点の2次元座標を用いて最小二乗法等により精度よく4個の位置パラメータを算出することが好ましい。
さらに、マークMと移動体Uとが同一平面上にあり、マークMが配置されている床面と移動体Uの現在位置の路面との間に段差も傾きも存在しない場合には、少なくともマークMを基準とした移動カメラBの2次元座標(x,y)とパン角(方向角)の3個のパラメータからなる位置パラメータを算出すればマークMと移動カメラBの相対位置関係を特定することができる。この場合にも、マークMの最低2個の特徴点の2次元座標により4個の関係式を作成すれば、3個の位置パラメータを求めることができるが、より多くの特徴点の2次元座標を用いて最小二乗法等により精度よく3個の位置パラメータを算出することが好ましい。
実施の形態3
この発明の実施の形態3に係る映像表示装置の構成を図7に示す。この実施の形態3は、固定カメラAを車庫等の駐車スペース側に固定すると共に移動カメラBを駐車スペースへ駐車を行う車両に搭載して、図3に示した実施の形態2の装置を駐車の支援のために用いた例を示している。
駐車スペースSの内部あるいは近傍に駐車スペース側装置11が配設され、駐車スペースSへの駐車を行う車両に車両側装置12が搭載されている。
駐車スペース側装置11は、駐車スペースSの奥部に配置されて駐車スペースSの入口付近を撮影するための固定カメラAを有しており、固定カメラAにエンコーダ13を介して通信部14が接続されている。エンコーダ13は、固定カメラAで撮影された映像を無線伝送に適した形式に圧縮するためのものであり、通信部14は、主に、エンコーダ13で圧縮された映像データを車両側装置12に向けて送信するためのものである。固定カメラAと通信部14に制御部15が接続されている。さらに、駐車スペース側装置11は、駐車スペースSの入口付近の床面に固設されたマークMを有している。
なお、固定カメラAの内部パラメータ(焦点距離、歪み定数等)と外部パラメータ(駐車スペースSに対する相対位置、角度等)は予め既知とする。同様に、固定カメラAに対するマークMの相対位置も既知とする。
一方、車両側装置12は、車両の後部に設置されて車両の後方を撮影するための移動カメラBを有しており、駐車スペースSへの後退駐車時には、この移動カメラBにより駐車スペースSのマークMが撮影される。移動カメラBに相対位置算出部1が接続されている。また、車両側装置12は、駐車スペース側装置11の通信部14との間で通信を行う通信部16を有し、この通信部16にデコーダ17が接続されている。デコーダ17は、通信部16で受信された駐車スペース側装置11からの圧縮された映像データを復号させるためのものである。
デコーダ17に映像合成部2が接続され、映像合成部2と移動カメラBの双方に映像選択部18が接続され、映像選択部18に車両の運転席に配置されたモニタ3が接続されている。
また、移動カメラB、相対位置算出部1、通信部16及び映像選択部18に制御部19が接続されている。
移動カメラBの内部パラメータ(焦点距離、歪み定数等)と車両に対する相対位置及び角度等は予め既知とする。
図4に示したように、車両側装置12の相対位置算出部1は、移動カメラBと映像合成部2との間に順次接続された画像処理手段4、位置パラメータ算出手段5及び相対位置特定手段6から構成されている。
次に、図8のフローチャートを参照して実施の形態3の作用について説明する。
まず、ステップS11として、駐車スペースSの近傍に車両を位置させてマークMを移動カメラBの視野内に入れた状態で、車両側装置12の制御部19により移動カメラBが作動し、マークMの撮影が行われる。
移動カメラBにより撮影された画像は相対位置算出部1に入力され、続くステップS12で、相対位置算出部1は移動カメラBと固定カメラAとの相対位置関係を図6に示したフローチャートに従って算出する。
このようにして相対位置算出部1で算出された相対位置関係に基づいて、制御部19は、固定カメラAに対する移動カメラBの相対距離Lを算出し、ステップS13で、この相対距離Lを所定値Lthと比較し、相対距離Lが所定値Lthより大きいときは、ステップS14で、映像選択部18に移動カメラBによる映像データを選択させる。これにより、図9に示されるように、運転席のモニタ3の画面上に移動カメラBで撮像された車両後方の映像が表示される。
一方、固定カメラAに対する移動カメラBの相対距離Lが所定値Lth以下のときは、制御部19は、ステップS15で、通信部16から駐車スペース側装置11へ映像データの要求信号を送信する。
駐車スペース側装置11では、車両側装置12から映像データの要求信号を通信部14で受信すると、ステップS16で、制御部15によって固定カメラAが作動され、駐車スペースSの入口付近の撮影が行われる。そして、固定カメラAで撮影された映像データがエンコーダ13で無線伝送に適した形式に圧縮された後、通信部14から車両側装置12に向けて送信される。
ステップS17で、車両側装置12の通信部16により駐車スペース側装置11から映像データが受信されると、この映像データは、デコーダ17で復号された後、映像合成部2に送られる。
映像合成部2は、ステップS18で、固定カメラAと移動カメラBとの相対位置関係に基づいて固定カメラAによる映像と移動カメラBによる映像とを一つに合成して俯瞰映像を作成する。
制御部19は、固定カメラAに対する移動カメラBの相対距離Lが所定値Lth以下であることから、ステップS19で、映像選択部18に映像合成部2による映像データを選択させる。これにより、図10に示されるように、運転席のモニタ3の画面上に映像合成部2で作成された俯瞰映像が表示される。
なお、ステップS13で用いられる所定値Lthは、例えば、駐車スペースSの両側部と奥部とが壁面等で仕切られた車庫を想定し、固定カメラAの視野内に後退駐車中の車両Vの一部が入り始めるときの移動カメラBと固定カメラAとの相対距離を基準に設定すればよい。
このように所定値Lthを設定すれば、車両Vが固定カメラAの視野内に入っていないときには、図9に示されるように、モニタ3の画面上に移動カメラBで撮像された車両後方の映像が表示され、車両Vが固定カメラAの視野内に入ってからは、図10に示されるように、モニタ3の画面上に俯瞰映像が表示されることになる。このため、モニタ3の画面に表示された俯瞰映像を見ながら車両Vの運転操作を行うことができ、車両Vと駐車スペースSとの相対位置関係を把握しやすくなり、車両Vを精度よく駐車スペースS内に駐車させることが可能となる。
実施の形態4
この発明の実施の形態4に係る映像表示装置の構成を図11に示す。この実施の形態4は、図3に示した実施の形態2の装置において、固定カメラAと移動カメラBの代わりに、第1の移動体U1に搭載された第1移動カメラB1と第2の移動体U2に搭載された第2移動カメラB2とを配置すると共に、相対位置算出部1の代わりに、移動カメラB1及びB2に相対位置算出部21を接続し、これら双方の移動カメラB1及びB2により共通のマークMを撮影するように構成したものである。
図12に示されるように、相対位置算出部21は、第1移動カメラB1に接続された第1算出部22と、第2移動カメラB2に接続された第2算出部23と、これら第1算出部22及び第2算出部23に接続された第3算出部24とを有しており、第3算出部24が映像合成部2に接続されている。
次に、図13のフローチャートを参照して実施の形態4の作用について説明する。
まず、ステップS21で、マークMを第1移動カメラB1の視野内に入れた状態で、第1移動カメラB1による撮影が行われる。相対位置算出部21の第1算出部22は、続くステップS22で、第1移動カメラB1により撮影されたマークMの画像からマークMの5つの特徴点C1〜C5を抽出し、画像上におけるこれら特徴点C1〜C5の2次元座標をそれぞれ認識して取得した後、ステップS23で、これら特徴点C1〜C5の2次元座標に基づき、マークMを基準とした第1移動カメラB1の3次元座標(x,y,z)、チルト角(伏せ角)、パン角(方向角)、スイング角(回転角)の6個のパラメータからなる位置パラメータを算出する。
次に、ステップS24で、マークMを第2移動カメラB2の視野内に入れた状態で、第2移動カメラB2による撮影が行われる。相対位置算出部21の第2算出部23は、続くステップS25で、第2移動カメラB2により撮影されたマークMの画像からマークMの5つの特徴点C1〜C5を抽出し、画像上におけるこれら特徴点C1〜C5の2次元座標をそれぞれ認識して取得した後、ステップS26で、これら特徴点C1〜C5の2次元座標に基づき、マークMを基準とした第2移動カメラB2の3次元座標(x,y,z)、チルト角(伏せ角)、パン角(方向角)、スイング角(回転角)の6個のパラメータからなる位置パラメータを算出する。
さらに、相対位置算出部21の第3算出部24は、第1算出部22及び第2算出部23で算出された第1移動カメラB1及び第2移動カメラB2の位置パラメータに基づき、ステップS27で、第1移動カメラB1と第2移動カメラB2との相対位置関係を特定する。
このようにして相対位置算出部21で算出された第1移動カメラB1と第2移動カメラB2との相対位置関係は映像合成部2に送られ、映像合成部2は、この相対位置関係に基づき、ステップS28で、第1移動カメラB1による映像と第2移動カメラB2による映像とを一つに合成して俯瞰映像を作成し、ステップS29で、この俯瞰映像をモニタ3に表示する。
実施の形態5
この発明の実施の形態5に係る映像表示装置の構成を図14に示す。この実施の形態5は、図11に示した実施の形態4の装置において、第1移動カメラB1と第2移動カメラB2で共通のマークMを撮影する代わりに、複数のマークM1及びM2を互いに異なる位置に設置し、第1移動カメラB1と第2移動カメラB2とがそれぞれ異なるマークを撮影するように構成したものである。
マークM1とマークM2の相対位置関係は、予め把握されているものとする。例えば、マークM1とマークM2の相対位置関係を相対位置算出部21に記憶させておくことができる。あるいは、マークM1及びM2にそれぞれの位置情報をバーコード等の手段により記録しておき、各カメラにより撮影された画像からその位置情報を認識するように構成することもできる。あるいは、マークM1及びM2それぞれの位置情報を、各マークの近傍に配置した無線送信機から発信し、第1の移動体U1及び第2の移動体U2で受信してその位置情報を認識してもよい。
第1移動カメラB1によりマークM1が、第2移動カメラB2によりマークM2が撮影される場合、相対位置算出部21の第1算出部22は、第1移動カメラB1により撮影されたマークM1の画像に基づいてマークM1を基準とした第1移動カメラB1の位置パラメータを算出し、相対位置算出部21の第2算出部23は、第2移動カメラB2により撮影されたマークM2の画像に基づいてマークM2を基準とした第2移動カメラB2の位置パラメータを算出する。
ここで、マークM1とマークM2の相対位置関係が予め把握されているので、相対位置算出部21の第3算出部24は、第1算出部22及び第2算出部23でそれぞれ算出された位置パラメータとマークM1及びM2間の相対位置関係とに基づき、第1移動カメラB1と第2移動カメラB2との相対位置関係を特定することができる。
その結果、映像合成部2は、この相対位置関係に基づき、第1移動カメラB1による映像と第2移動カメラB2による映像とを一つに合成して俯瞰映像を作成し、この俯瞰映像をモニタ3に表示することが可能となる。
なお、各移動カメラB1,B2で撮影されるマークがマークM1及びM2のうちのいずれか一方に特定されない場合や、双方のマークM1及びM2が同時に撮影される場合には、撮影されたマークが、マークM1及びM2のうちいずれの画像であるかを判別するために、双方のマークM1及びM2の形状、色彩等を互いに異ならせることが好ましい。
その他の実施の形態
上記の各実施の形態において、映像合成部2により作成される合成映像は、俯瞰映像に限られるものではなく、映像合成部2は、各カメラの視点とは異なる任意の仮想の視点Pからの映像を作成することができる。また、必ずしも各カメラの視点とは異なる仮想の視点Pからの映像に限らず、映像合成部2が、複数のカメラのうちいずれか一つのカメラの視点からの映像を作成してもよい。例えば、上述の実施の形態3において、映像合成部2が、駐車スペース側の固定カメラAの映像を車載の移動カメラBの視点からの映像に変換して移動カメラBの映像と合成することにより、図9に示したように車載の移動カメラBからの映像だけでは壁に隠されて死角となる駐車スペースS内の領域をも透視して追加した合成映像を得ることができる。あるいは、車載の移動カメラBからの映像だけでは撮影範囲外になって死角となる領域を追加した合成映像を得ることができる。
上記の各実施の形態では、1台の固定カメラAと1台の移動カメラB、または、2台の移動カメラB1及びB2からの映像を合成したが、互いの相対位置関係が変化する3台以上のカメラからの映像を合成して任意の仮想の視点Pからの映像を作成することもできる。
また、移動体U,U1,U2は、車両等の移動装置に限られるものではなく、例えばカメラを持って歩く人でもよい。
実施の形態2〜5で用いられたマークは、4つの直角2等辺三角形を互いに当接させた正方形状の外形を有していたが、これに限るものではなく、各種のマークを使用することができる。ただし、自然界に存在する形状に対して判別しやすい、特異な形状、色彩等を具備し、画像処理手段4における画像認識により、その存在を認知しやすいものであり、さらに内部に含んでいる特徴点を認識しやすいものが望ましい。
また、マークは、認識された特徴点の2次元座標に基づいてカメラとマークとの相対位置関係を精度良く算出することができるように、十分な大きさを有し且つカメラから認知しやすい場所に設置されることが望まれる。具体的には、カメラが配置される場所の周辺の床面、壁面、天井面等に設置することができる。
この発明の実施の形態1に係る映像表示装置の構成を示すブロック図である。 実施の形態1の作用を示すフローチャートである。 実施の形態2に係る映像表示装置の構成を示すブロック図である。 実施の形態2における相対位置算出部の構成を示すブロック図である。 実施の形態2で用いられたマークを示す図である。 実施の形態2の移動カメラと固定カメラとの相対位置関係を算出するステップにおける作用を示すフローチャートである。 実施の形態3に係る映像表示装置の構成を示すブロック図である。 実施の形態3の作用を示すフローチャートである。 実施の形態3におけるモニタの画面を示す図である。 実施の形態3におけるモニタの画面を示す図である。 実施の形態4に係る映像表示装置の構成を示すブロック図である。 実施の形態4における相対位置算出部の構成を示すブロック図である。 実施の形態4の作用を示すフローチャートである。 実施の形態4に係る映像表示装置の構成を示すブロック図である。
符号の説明
1,21 相対位置算出部、2 映像合成部、3 モニタ、4 画像処理手段、5 位置パラメータ算出手段、6 相対位置特定手段、11 駐車スペース側装置、12 車両側装置、13 エンコーダ、14,16 通信部、15 制御部、17 デコーダ、18 映像選択部、19 制御部、22 第1算出部、23 第2算出部、24 第3算出部、A 固定カメラ、B,B1,B2 移動カメラ、U,U1,U2 移動体、P 仮想視点、M,M1,M2 マーク、C1〜C5 特徴点、S 駐車スペース、V 車両。

Claims (9)

  1. 互いの相対位置関係が変化する複数のカメラと、
    前記複数のカメラの互いの相対位置関係を算出する相対位置算出部と、
    前記相対位置算出部で算出された相対位置関係に基づいて前記複数のカメラからの映像を互いに合成することにより所定の視点からの映像を作成する映像合成部と、
    前記映像合成部で作成された映像を表示するモニタと
    を備えたことを特徴とする映像表示装置。
  2. 前記複数のカメラは、少なくとも一つの移動カメラと少なくとも一つの固定カメラとを含む請求項1に記載の映像表示装置。
  3. 前記複数のカメラは、それぞれ移動カメラからなる請求項1に記載の映像表示装置。
  4. 少なくとも一つの特徴点を有する固定目標が予め所定の固定位置に設置され、
    前記相対位置算出部は、前記移動カメラにより撮影された前記固定目標の画像に基づいて前記固定目標を基準とした前記移動カメラの位置パラメータを算出し、算出された位置パラメータに基づいて他のカメラに対する前記移動カメラの相対位置関係を算出する請求項2または3に記載の映像表示装置。
  5. 前記固定目標は、所定形状のマークからなる請求項4に記載の映像表示装置。
  6. 前記映像合成部は、所定の視点からの映像として前記複数のカメラの視点とは異なる仮想の視点からの映像を作成する請求項1〜5のいずれか一項に記載の映像表示装置。
  7. 前記映像合成部は、所定の視点からの映像として俯瞰映像を作成する請求項6に記載の映像表示装置。
  8. 前記映像合成部は、所定の視点からの映像として前記複数のカメラのうちいずれか一つのカメラの視点から見ると共に死角領域に映像を追加して映像を作成する請求項1〜5のいずれか一項に記載の映像表示装置。
  9. 互いの相対位置関係が変化する複数のカメラの互いの相対位置関係を算出し、
    算出された相対位置関係に基づいて前記複数のカメラからの映像を互いに合成することにより所定の視点からの映像を作成し、
    作成された所定の視点からの映像を表示する
    ことを特徴とする映像表示方法。
JP2007272654A 2007-10-19 2007-10-19 映像表示装置及び映像表示方法 Pending JP2009101718A (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP2007272654A JP2009101718A (ja) 2007-10-19 2007-10-19 映像表示装置及び映像表示方法
EP08839973A EP2200312A4 (en) 2007-10-19 2008-10-06 VIDEO DISPLAY DEVICE AND VIDEO DISPLAY PROCEDURE
CN200880111644A CN101828394A (zh) 2007-10-19 2008-10-06 影像显示装置以及影像显示方法
PCT/JP2008/068152 WO2009051028A1 (ja) 2007-10-19 2008-10-06 映像表示装置及び映像表示方法
US12/676,063 US20100201810A1 (en) 2007-10-19 2008-10-06 Image display apparatus and image display method
KR1020107008238A KR20100053694A (ko) 2007-10-19 2008-10-06 영상 표시 장치 및 영상 표시 방법
TW097139821A TW200926067A (en) 2007-10-19 2008-10-17 Image display apparatus and image display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007272654A JP2009101718A (ja) 2007-10-19 2007-10-19 映像表示装置及び映像表示方法

Publications (1)

Publication Number Publication Date
JP2009101718A true JP2009101718A (ja) 2009-05-14

Family

ID=40567297

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007272654A Pending JP2009101718A (ja) 2007-10-19 2007-10-19 映像表示装置及び映像表示方法

Country Status (7)

Country Link
US (1) US20100201810A1 (ja)
EP (1) EP2200312A4 (ja)
JP (1) JP2009101718A (ja)
KR (1) KR20100053694A (ja)
CN (1) CN101828394A (ja)
TW (1) TW200926067A (ja)
WO (1) WO2009051028A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011237532A (ja) * 2010-05-07 2011-11-24 Nec Casio Mobile Communications Ltd 端末装置及び端末通信システム並びにプログラム
KR101214471B1 (ko) 2011-04-11 2012-12-24 주식회사 이미지넥스트 감시 영상의 3차원 정합 방법 및 시스템
JP2013078037A (ja) * 2011-09-30 2013-04-25 Casio Comput Co Ltd 画像処理装置、画像処理方法及びプログラム
WO2016158855A1 (ja) * 2015-03-31 2016-10-06 株式会社ニコン 撮像システム、撮像装置、撮像方法、及び撮像プログラム
JP2022516466A (ja) * 2019-01-14 2022-02-28 ソニーグループ株式会社 情報処理装置、情報処理方法、並びにプログラム

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011086111A (ja) * 2009-10-15 2011-04-28 Mitsubishi Electric Corp 撮像装置校正方法及び画像合成装置
CN102469291A (zh) * 2010-11-05 2012-05-23 屈世虎 视频通话系统和方法
JP5725953B2 (ja) * 2011-04-13 2015-05-27 キヤノン株式会社 撮像装置及びその制御方法、並びに情報処理装置
FR2985350B1 (fr) * 2012-01-04 2014-01-24 Peugeot Citroen Automobiles Sa Procede de traitement d'image d'une camera embarquee sur un vehicule et dispositif de traitement correspondant
CN103512557B (zh) * 2012-06-29 2016-12-21 联想(北京)有限公司 电子设备间相对位置确定方法及电子设备
CA2854669C (en) * 2013-06-18 2021-08-31 Dreamwell, Ltd. Display device for a plunger matrix mattress
US10556586B2 (en) 2015-03-03 2020-02-11 Volvo Truck Corporation Vehicle assistance system
JP6730177B2 (ja) * 2016-12-28 2020-07-29 株式会社デンソーテン 画像生成装置および画像生成方法
CN109974667B (zh) * 2017-12-27 2021-07-23 宁波方太厨具有限公司 一种室内人体定位方法
US11394949B2 (en) * 2018-06-12 2022-07-19 Disney Enterprises, Inc. See-through operator awareness tool using synthesized viewpoints
US11263780B2 (en) * 2019-01-14 2022-03-01 Sony Group Corporation Apparatus, method, and program with verification of detected position information using additional physical characteristic points
EP3982325A4 (en) * 2019-06-06 2022-08-03 NEC Corporation TREATMENT SYSTEM, TREATMENT PROCEDURE AND PROGRAM
JP2021125826A (ja) * 2020-02-06 2021-08-30 キヤノン株式会社 撮像装置、画像処理装置の制御方法、撮像システム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002054320A (ja) * 2000-08-10 2002-02-20 Yazaki Corp 駐車補助装置
JP2002135765A (ja) * 1998-07-31 2002-05-10 Matsushita Electric Ind Co Ltd カメラキャリブレーション指示装置及びカメラキャリブレーション装置
JP2002367080A (ja) * 2001-06-12 2002-12-20 Clarion Co Ltd 車両用視覚支援方法及び装置
JP2003319383A (ja) * 2002-04-24 2003-11-07 Equos Research Co Ltd 車載画像処理装置
JP2004064696A (ja) * 2002-07-31 2004-02-26 Nissan Motor Co Ltd 駐車支援装置
JP2004351977A (ja) * 2003-05-27 2004-12-16 Matsushita Electric Ind Co Ltd 車外映像表示装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0399952A (ja) 1989-09-12 1991-04-25 Nissan Motor Co Ltd 車両用周囲状況モニタ
JP3328478B2 (ja) 1995-10-18 2002-09-24 日本電信電話株式会社 カメラシステム
JP3286306B2 (ja) * 1998-07-31 2002-05-27 松下電器産業株式会社 画像生成装置、画像生成方法
US7277123B1 (en) * 1998-10-08 2007-10-02 Matsushita Electric Industrial Co., Ltd. Driving-operation assist and recording medium
DE10035223A1 (de) * 2000-07-20 2002-01-31 Daimler Chrysler Ag Vorrichtung und Verfahren zur Überwachung der Umgebung eines Objekts
JP2006341641A (ja) * 2005-06-07 2006-12-21 Nissan Motor Co Ltd 映像表示装置及び映像表示方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002135765A (ja) * 1998-07-31 2002-05-10 Matsushita Electric Ind Co Ltd カメラキャリブレーション指示装置及びカメラキャリブレーション装置
JP2002054320A (ja) * 2000-08-10 2002-02-20 Yazaki Corp 駐車補助装置
JP2002367080A (ja) * 2001-06-12 2002-12-20 Clarion Co Ltd 車両用視覚支援方法及び装置
JP2003319383A (ja) * 2002-04-24 2003-11-07 Equos Research Co Ltd 車載画像処理装置
JP2004064696A (ja) * 2002-07-31 2004-02-26 Nissan Motor Co Ltd 駐車支援装置
JP2004351977A (ja) * 2003-05-27 2004-12-16 Matsushita Electric Ind Co Ltd 車外映像表示装置

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011237532A (ja) * 2010-05-07 2011-11-24 Nec Casio Mobile Communications Ltd 端末装置及び端末通信システム並びにプログラム
KR101214471B1 (ko) 2011-04-11 2012-12-24 주식회사 이미지넥스트 감시 영상의 3차원 정합 방법 및 시스템
JP2013078037A (ja) * 2011-09-30 2013-04-25 Casio Comput Co Ltd 画像処理装置、画像処理方法及びプログラム
WO2016158855A1 (ja) * 2015-03-31 2016-10-06 株式会社ニコン 撮像システム、撮像装置、撮像方法、及び撮像プログラム
JPWO2016158855A1 (ja) * 2015-03-31 2018-01-25 株式会社ニコン 撮像システム、撮像装置、撮像方法、及び撮像プログラム
JP2022516466A (ja) * 2019-01-14 2022-02-28 ソニーグループ株式会社 情報処理装置、情報処理方法、並びにプログラム

Also Published As

Publication number Publication date
CN101828394A (zh) 2010-09-08
EP2200312A1 (en) 2010-06-23
TW200926067A (en) 2009-06-16
US20100201810A1 (en) 2010-08-12
WO2009051028A1 (ja) 2009-04-23
KR20100053694A (ko) 2010-05-20
EP2200312A4 (en) 2010-10-20

Similar Documents

Publication Publication Date Title
JP2009101718A (ja) 映像表示装置及び映像表示方法
CN102917205B (zh) 车辆环绕视图系统
CN101404122B (zh) 驾驶支援装置以及驾驶支援方法
US8854231B2 (en) Parking assistance system and method
US20070003162A1 (en) Image generation device, image generation method, and image generation program
JP4892965B2 (ja) 移動体判定システム、移動体判定方法、及びコンピュータプログラム
WO2012033095A1 (ja) 車両システム
JP4796676B2 (ja) 車両上方視点画像表示装置
US20130021453A1 (en) Autostereoscopic rear-view display system for vehicles
KR20120066194A (ko) 휴대 단말을 이용한 차량 주변 영상 제공 시스템 및 그 방법
JP4626400B2 (ja) 俯瞰画像表示装置及び俯瞰画像表示方法
WO2016102304A1 (en) Method for presenting an image overlay element in an image with 3d information, driver assistance system and motor vehicle
JP2020080542A (ja) 車両の画像提供システム、サーバーシステムおよび車両の画像提供方法
JP2005269010A (ja) 画像生成装置、画像生成プログラム、及び画像生成方法
WO2021131201A1 (ja) 運転支援装置、運転支援方法及びプログラム
JP6221562B2 (ja) 車両用情報提示装置
KR102298047B1 (ko) 디지털 콘텐츠를 녹화하여 3d 영상을 생성하는 방법 및 장치
US20220244726A1 (en) Information processing apparatus, information processing method, and program
JP2015184804A (ja) 画像表示装置、画像表示方法及び画像表示プログラム
EP4256505A1 (en) Vehicle undercarriage imaging
JP2009177245A (ja) 死角画像表示システム、死角画像表示方法、画像伝送装置、及び画像再生装置
JP6274936B2 (ja) 運転支援装置
JPWO2020022373A1 (ja) 運転支援装置および運転支援方法、プログラム
JP4650935B2 (ja) 車両運転支援装置
JP2020057981A (ja) 画像作成システム、画像作成装置、及び画像作成装置の制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091203

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120703

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20121106