JP5640433B2 - Image information providing apparatus and image information providing method - Google Patents
Image information providing apparatus and image information providing method Download PDFInfo
- Publication number
- JP5640433B2 JP5640433B2 JP2010088430A JP2010088430A JP5640433B2 JP 5640433 B2 JP5640433 B2 JP 5640433B2 JP 2010088430 A JP2010088430 A JP 2010088430A JP 2010088430 A JP2010088430 A JP 2010088430A JP 5640433 B2 JP5640433 B2 JP 5640433B2
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- image
- virtual viewpoint
- abnormality
- external device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Burglar Alarm Systems (AREA)
- Alarm Systems (AREA)
Description
本発明は、画像情報提供装置およびその方法に関する。 The present invention relates to an image information providing apparatus and method.
たとえば、駐車中といったように、車両のユーザが車両から離れているような場合には、車両や車内の物品が盗まれたり、誤って車両を傷つけられまたは衝突されたりといったように、ユーザが認識し得ない種々の異常が車両に生じることがある。 For example, when the user of the vehicle is away from the vehicle, such as when the vehicle is parked, the user recognizes that the vehicle or an article in the vehicle is stolen, or the vehicle is accidentally damaged or collided. Various abnormalities that cannot be made may occur in the vehicle.
たとえば、特許文献1には、車両から離れているユーザに対して、車両の現況や異常発生状況の確認を行えるようにした車両監視装置が開示されている。この車両監視装置は、一定時間ごとに、車両において衝突や盗難等といった異常が生じているか否かを検出する。車両監視装置は、異常を検出した場合、車両の屋根に取り付けられた複数のカメラによって車両の外観を撮影することにより、複数の画像からなる画像データを取得し、この画像データをユーザの保有する携帯電話機に転送する。これにより、ユーザは携帯電話機の表示画面上で画像データを確認することができる。
For example,
しかしながら、特許文献1に開示された手法によれば、複数のカメラから得られた画像のそれぞれがユーザに表示されるため、車両のどこに異常が生じているのかをユーザが素早く認識することが難しいといった不都合がある。
However, according to the method disclosed in
本発明はかかる事情に鑑みてなされたものであり、その目的は、提供される画像情報から、ユーザが車両に生じている異常を容易に認識するができるように画像情報を作成することである。 The present invention has been made in view of such circumstances, and an object thereof is to create image information so that a user can easily recognize an abnormality occurring in a vehicle from provided image information. .
かかる課題を解決するために、本発明は、画像情報としての車両周囲画像をユーザに提供する手法を提供する。かかる手法は、車両周囲の画像がマッピングされる三次元空間のモデルを視点変換することにより車両周囲画像を作成するものであり、視点変換を行う際には、車両に生じている異常の検出結果に基づいて、車両に生じている異常が車両周囲画像に含まれるように仮想視点の計算を行う。 In order to solve this problem, the present invention provides a technique for providing a user with a vehicle surrounding image as image information. This method creates a vehicle surrounding image by performing viewpoint transformation on a model in a three-dimensional space to which an image around the vehicle is mapped. When performing viewpoint transformation, a detection result of an abnormality occurring in the vehicle Based on the above, the virtual viewpoint is calculated so that the abnormality occurring in the vehicle is included in the vehicle surrounding image.
本発明によれば、車両に生じている異常という、ユーザの欲している視点から車両周囲画像が作成されるので、当該車両周囲画像から、車両に生じている異常をユーザが容易に認識することができる。 According to the present invention, the vehicle surrounding image is created from the viewpoint that the user desires, that is, the abnormality occurring in the vehicle, so that the user can easily recognize the abnormality occurring in the vehicle from the vehicle surrounding image. Can do.
(第1の実施形態)
図1は、本実施形態にかかる画像情報提供装置の構成を模式的に示す説明図である。この画像情報提供システムは、ユーザが車両Caから離れているような場合(例えば、駐車場への駐車中)において、車両Caに異常が生じた際に、ユーザに画像情報としての車両周囲画像Pacを提供するシステムである。ここで、車両周囲画像Pacは、仮想視点を適切に設定することにより、車両Caに生じている異常を含んた状態で車両Caを眺めたように作成される画像であり、その詳細については後述する。車両Caに生じる異常としては、不審者もしくは不審物が近づいたこと、ドアが無断で開けられたこと、窓ガラスが割られたこと、車内へ侵入されること、車両を傷つけられたこと、衝突されたことといったように、ユーザの了知し得ない車両に対する異常および異常が生じ得る可能性をいう。
(First embodiment)
FIG. 1 is an explanatory diagram schematically showing the configuration of the image information providing apparatus according to the present embodiment. In the case where the user is away from the vehicle Ca (for example, during parking in a parking lot), the image information providing system provides a vehicle surrounding image Pac as image information to the user when an abnormality occurs in the vehicle Ca. It is a system that provides Here, the vehicle surrounding image Pac is an image created as if the vehicle Ca was viewed in a state including an abnormality occurring in the vehicle Ca by appropriately setting the virtual viewpoint, and details thereof will be described later. To do. Abnormalities that occur in the vehicle Ca include a suspicious person or a suspicious object approaching, a door being opened without permission, a window glass being broken, an intrusion into the vehicle, a vehicle being damaged, a collision It means the possibility that an abnormality and an abnormality may occur with respect to the vehicle that the user cannot understand.
画像情報提供装置は、車両Caに搭載される本体装置1を主体に構成されている。本体装置1は、異常を検出する機能、車両周囲画像を作成する機能および車両周囲画像を送信する機能を有している。
The image information providing device is mainly configured by a
本体装置1は、ユーザが保有する外部装置2と通信可能に構成されている。外部装置2は、画像情報を受信する機能およびその画像情報を提示する機能を有しており、例えば、携帯電話や、通信機能付きの携帯情報端末(PAD:Personal Digital Assistant)などを用いることができる。本体装置1は、外部装置2との間で情報を直接的に送受信してもよいし、本体装置1と外部装置2との間に通信サーバ3を設けてこの通信サーバ3を介して外部装置2との間で情報を送受信してもよい。
The
図2は、本体装置1の構成を模式的に示すブロック図である。本体装置1は、車両周囲画像Pacを作成し、作成した車両周囲画像Pacを外部装置2に送信する。本体装置1は、制御ユニット10、撮影部11、異常検出部12、通信部13および記憶部14を主体に構成されている。
FIG. 2 is a block diagram schematically showing the configuration of the
制御ユニット10は、装置全体を統合的に制御する機能を担っており、制御プログラムに従って動作することにより、車両周囲画像Pacの作成および送信を行う。制御ユニット10としては、CPU、ROM、RAM、I/Oインターフェースを主体に構成されたマイクロコンピュータを用いることができる。制御ユニット10には、撮影部11、異常検出部12、通信部13および記憶部14がそれぞれ接続されている。
The
撮影部11は、車両Caからその周囲を撮影することにより画像を出力する撮影手段であり、それぞれが車体の周囲に配置された複数のカメラ11a〜11dによって構成されている。複数のカメラ11a〜11dは、それぞれが180°程度の画角を持つ広角カメラであり、それぞれの撮影方向がオフセットするように設定されている。撮影部11は、これらのカメラ11a〜11dにより得られる画像により、車両周囲の全範囲をカバーする画像を得ることができる。
The photographing unit 11 is a photographing unit that outputs an image by photographing the periphery of the vehicle Ca, and includes a plurality of
図3に示すように、個々のカメラ11a〜11dは、例えば、車両Caのリア、左ドアミラー、車両Caのフロント、右ドアミラーの合計4箇所にそれぞれ取り付けられている。車両Caのリアに取り付けられたカメラ11aは、車両後方を撮影し、左ドアミラーに取り付けられたカメラ11bは、車両左側方を撮影する。また、車両Caのフロントに取
り付けられたカメラ11cは、車両前方を撮影し、車両Caの右ドアミラーに取り付けられたカメラ11dは、車両右側方を撮影する。
As shown in FIG. 3, each of the
個々のカメラ11a〜11dは、イメージセンサ(例えば、CCDまたはCMOSセンサ等)やA/D変換器を内蔵している。各カメラ11a〜11dは、制御ユニット20からの画像の読み込み動作に対応して撮影を行い、撮影された画像に相当する画像データを制御ユニット10に出力する。
Each of the
異常検出部12は、ユーザ不在の状態の車両に生じる異常と、その異常が生じている位置とを検出する(異常検出手段)。この異常検出部12としては、物体検出センサまたは衝撃検出センサ、あるいは、これらの両方を用いることができる(本実施形態において、異常検出部12は、物体検出センサおよび衝撃検出センサの双方から構成される)。異常検出部12による検出結果は、制御ユニット10に入力される。
The
物体検出センサは、撮影部11と同様に、センサ検知範囲が車両周囲の全範囲をカバーするように、車室内または車室外に一つ以上配置されている。物体検出センサは、例えば、車両周囲に不審物(人間や動物など)が所定時間存在することを条件に、車両に異常が生じていること、および、車両に対する異常の位置および方向を検出する。物体検出センサとしては、音波(例えば、超音波)、電波(例えば、ミリ波)、レーザ(例えば、赤外線)を利用する周知のセンサを用いることができる。 As with the photographing unit 11, one or more object detection sensors are arranged inside or outside the vehicle interior so that the sensor detection range covers the entire range around the vehicle. The object detection sensor detects, for example, that an abnormality has occurred in the vehicle and the position and direction of the abnormality with respect to the vehicle on the condition that a suspicious object (such as a human being or an animal) exists around the vehicle for a predetermined time. As the object detection sensor, a known sensor using a sound wave (for example, an ultrasonic wave), a radio wave (for example, a millimeter wave), or a laser (for example, an infrared ray) can be used.
衝撃検出センサは、センサ検知範囲が車両周囲の全範囲をカバーするように、車両の側面部、前面部や後面部といった任意の位置に複数取り付けられている。衝撃検出センサは、車両に対する衝撃、具体的には、車両Caへの衝突や、車両Caに傷がつけられたりしたことを条件に、車両に異常が生じていること、および、車両に対する異常の位置を検出する。衝撃検出センサとしては、センサ内部にある接点が衝撃によってスイッチオンとされるタイプ(振り子タイプ)や、一対の極板間に存在する誘電体が衝撃で移動することにより、その静電容量の変化を読み取るタイプ(静電容量タイプ)を用いることができる。 A plurality of impact detection sensors are attached at arbitrary positions such as a side surface portion, a front surface portion, and a rear surface portion of the vehicle so that the sensor detection range covers the entire range around the vehicle. The impact detection sensor detects that an abnormality has occurred in the vehicle and that there is an abnormality in the vehicle on the condition that the vehicle has an impact, specifically, a collision with the vehicle Ca or a damage to the vehicle Ca. Detect position. As an impact detection sensor, the contact point inside the sensor is switched on by impact (pendulum type), or the capacitance that changes when the dielectric that exists between a pair of plates moves due to impact. Can be used (capacitance type).
通信部13は、本体装置1が外部装置2または通信サーバ3と通信する機能を担っている(通信手段)。通信部13による装置間の通信としては、移動通信機、携帯電話または自動車電話といった公衆通信網を用いる手法を挙げることができる。ただし、これ以外にも、無線LAN(Local Area Network)や、狭域通信を利用して手法を単独で、あるいは、組み合わせて利用することができる。
The
記憶部14は、制御ユニット10からの格納指示にともない、車両周囲画像Pacを格納する機能を担っている(記憶手段)。格納されている車両周囲画像Pacは、制御ユニット10により読み出されることができる。記憶部14としては、例えば、装置に対して固定的に設置されるハードディスク(HD:Hard Disk)装置などを用いることができる。な
お、記憶部14として、フラッシュメモリといった半導体メモリを搭載した各種リムーバブルメディアなどを用いてもよい。
The
再び図2を参照するに、制御ユニット10は、これを機能的に捉えた場合、画像データ処理部10aと、異常判断部10bと、マッピング部10cと、仮想視点計算部10dと、視点変換部10eと、合成部10fとを有している。
Referring to FIG. 2 again, when the
画像データ処理部10aは、撮影部11を構成する4つのカメラ11a〜11dから画像データをそれぞれ読み込む。画像データ処理部10aは、読み込んだ画像データのそれぞれをマッピング部10cに対して出力する。なお、画像データ処理部10aは、必要に応じて、読み込んだ画像データのそれぞれに種々の画像処理を施した上で、マッピング部
10cに出力することができる(処理手段)。
The image
異常判断部10bは、異常検出部12を構成する物体検出センサおよび衝撃検出センサからセンサ信号をそれぞれ読み込む。異常判断部10bは、読み込んだセンサ信号に基づいて、車両Caに異常が発生しているか否かを判断する。車両Caに異常が発生している場合、異常判断部10bは、異常検出部12による検出結果を仮想視点計算部10dに出力する。
The
マッピング部10cは、4つのカメラ11a〜11dから得られる画像データのそれぞれを処理対象として、各カメラ11a〜11dの性能(諸元)や取り付けパラメータに基づいて、画像データを構成する画素毎に投影マッピングを行う(マッピング手段)。マッピングされる対象は、車両位置を座標系の基準とする三次元空間のモデル(以下「三次元空間モデルSM」という)である。投影マッピングにより作成された空間データは、視点変換部10eに出力される。
The
仮想視点計算部10dは、三次元空間における仮想視点の位置および方向を計算する(仮想視点計算手段)。本実施形態における仮想視点の位置および方向は、車両Caに生じている異常(あるいはその一部)が車両周囲画像Pacに含まれるように計算される。すなわち、仮想視点計算部10dは、異常検出部12が検出した異常の位置と、各カメラ11a〜11dの取り付け位置との関係に基づいて上記の計算を行う。計算された仮想視点の位置および方向に相当する仮想視点データは、視点変換部10eに出力される。
The virtual
視点変換部10eは、仮想視点データに基づいて、空間データを視点変換することにより、車両周囲画像Pacを作成する(視点変換手段)。作成された車両周囲画像Pacは、仮想視点データによって規定される仮想視点の位置および方向から車両Caおよびその周囲を撮影したような画像となっており、この画像には、車両Caに生じている異常が含まれるようになっている。作成された車両周囲画像Pacは、合成部10fに出力される。
The
合成部10fは、仮想視点データによって規定される仮想視点の位置および方向から車両Caを撮影したような車両の形状モデルPcaを作成する。車両の形状モデルPcaは例えばCG(Computer Graphics)であり、その基本となるデータは、例えば、ROMなどに
予め格納されている。合成部10fは、車両周囲画像Pacに、作成された車両の形状モデルPcaを重畳することにより、最終的な車両周囲画像Pacを作成する(合成手段)。作成された車両周囲画像Pacは、通信部13により、外部装置2へと送信される。
The synthesizing
図4は、外部装置2の構成を模式的に示すブロック図である。外部装置2は、本体装置1から送信される車両周囲画像Pacを受信し、この受信した車両周囲画像Pacをユーザに提示(表示)する。外部装置2は、制御ユニット20と、入力部21と、表示部22と、通信部23と、記憶部24とを有している。
FIG. 4 is a block diagram schematically showing the configuration of the
制御ユニット20は、装置全体を統合的に制御する機能を担っており、制御プログラムに従って動作することにより、車両周囲画像Pacの受信および表示を行う。制御ユニット20としては、CPU、ROM、RAM、I/Oインターフェースを主体に構成されたマイクロコンピュータを用いることができる。制御ユニット20には、入力部21、表示部22、通信部23および記憶部24がそれぞれ接続されている。
The
入力部21は、例えば、キーボード、表示部22上に付設されたタッチパネル、スイッチ等、あるいはこれらの組み合わせで構成されている。ユーザは、キーボード、タッチパネル、スイッチの操作を通じて、各種の入力操作や選択操作を行うことができる。例えば、ユーザは、入力部21を操作することにより、車両周囲画像Pacの作成を要求するリク
エスト信号を本体装置1に送信することで、車両周囲画像Pacの作成を本体装置1に依頼することができる。この場合、本体装置1により作成された車両周囲画像Pacは、外部装置2が受信することでこれを表示部22に表示してもよいし、必要な場所に格納しておいてもよい。車両周囲画像Pacの格納場所としては、本体装置1の記憶部14であってもよいし、外部装置2の記憶部24としてもよいし、通信サーバ3であってもよい。これにより、ユーザが自分の希望するタイミングで車両周囲画像Pacを取得できたり、事後的に車両周囲画像Pacを取得することができる。
The
表示部22は、例えば、液晶ディスプレイ等の表示装置であり、制御ユニット20によって制御され、受信した車両周囲画像Pacをユーザに表示する。
The
通信部23は、外部装置2が本体装置1または通信サーバ3と通信するため機能を担っている。通信部23による装置間の通信としては、移動通信機、携帯電話または自動車電話といった公衆通信網を用いた手法を挙げることができる。ただし、これ以外にも、無線LAN(Local Area Network)や、狭域通信を利用してもよい。
The
記憶部24は、制御ユニット20からの格納指示にともない、車両周囲画像Pacを格納する機能を担っている(記憶手段)。格納されている車両周囲画像Pacは、制御ユニット20により読み出されることができる。記憶部24としては、例えば、ハードディスク(HD:Hard Disk)装置などを用いることができる。なお、記憶部24として、フラッシ
ュメモリといった半導体メモリを搭載した各種リムーバブルメディアなどを用いるようにしてもよい。
The
図5は、車両周囲画像Pacの作成概念を説明する説明図である。同図において、(a)は、三次元空間モデルSMを、仮想的に示す車両Bcaの斜め前方から眺めた図であり、(b)は、三次元空間モデルSMを、仮想的に示す車両Bcaの前方から眺めた図である。三次元空間モデルSMは、お椀のような半球形状の曲面で構成されており、凹面形状にラウンドする底面領域と、概ね垂直面からなる円筒形状の側面領域とで構成されている。三次元空間モデルSMの座標系の基準は、仮想的な車両Bcaを重畳的に示すように、車両Caの位置と対応する、底面領域の中央部(底部)に設定されている。 FIG. 5 is an explanatory diagram for explaining the concept of creating the vehicle surrounding image Pac. In the same figure, (a) is a view of the three-dimensional space model SM as viewed from an oblique front of the vehicle Bca virtually showing the three-dimensional space model SM, and (b) is a vehicle Bca virtually showing the three-dimensional space model SM. It is the figure seen from the front. The three-dimensional space model SM is composed of a hemispherical curved surface such as a bowl, and is composed of a bottom surface area that rounds into a concave shape and a cylindrical side surface area that consists of a substantially vertical surface. The reference of the coordinate system of the three-dimensional space model SM is set at the center (bottom) of the bottom area corresponding to the position of the vehicle Ca so as to superimpose the virtual vehicle Bca.
三次元空間モデルSMは、車両Bcaの後方に対応する領域SMaと、車両Bcaの左側方に対応する領域SMbと、車両Bcaの前方に対応する領域SMcと、車両Bcaの右側方に対応する領域SMdとで構成されている。マッピング部10cは、車両Caのリアに取り付けられたカメラ11aからの画像データを領域SMaにマッピングし、車両Caの左ドアミラーに取り付けられたカメラ11bからの画像データを領域SMbにマッピングする。また、マッピング部10cは、車両Caのフロントに取り付けられたカメラ11cからの画像データを領域SMcにマッピングし、車両Caの右ドアミラーに取り付けられたカメラ11dからの画像データを領域SMdにマッピングする。
The three-dimensional space model SM includes a region SMa corresponding to the rear of the vehicle Bca, a region SMb corresponding to the left side of the vehicle Bca, a region SMc corresponding to the front of the vehicle Bca, and a region corresponding to the right side of the vehicle Bca. It is composed of SMd. The
なお、三次元空間モデルSMの形状は、曲面形状であることに限らない。三次元空間モデルSMは、複数の平面によって構成してもよい、平面と曲面との組み合わせによって構成してもよい。 Note that the shape of the three-dimensional space model SM is not limited to a curved surface shape. The three-dimensional space model SM may be constituted by a plurality of planes or a combination of planes and curved surfaces.
図5(c)は、車両周囲画像Pacの説明図である。同図に示す車両周囲画像Pacは、同図(a)、(b)の矢印Aに示すように、車両Bcaの右側上方位置から車両Bcaを見下ろすように設定された仮想視点と、空間データとに基づいて視点変換部10eが車両周囲画像Pacを作成し、この車両周囲画像Pacに合成部10fが車両の形状モデルPcaを合成することにより作成される。矢印Aのように仮想視点を設定した場合、車両周囲画像Pacは、車両Caの左側に対応する画像データを含んで作成される。一方で、矢印Aのように仮
想視点を設定した場合、車両周囲画像Pacには、車両Caの右側に対応する画像データは含まれない。
FIG. 5C is an explanatory diagram of the vehicle surrounding image Pac. The vehicle surrounding image Pac shown in the figure includes a virtual viewpoint set so as to look down at the vehicle Bca from the upper right position of the vehicle Bca, spatial data, as indicated by an arrow A in FIGS. The
たとえば、図3に示すように、車両Caの左前方に高さ成分を持つ立体物Obが存在するとする。この立体物Obは、図5(a),(b)に示すように、三次元空間モデルSMにおいて立体物Pobで示す位置にマッピングされる。この場合、矢印Aに示すように仮想視点を設定することにより、立体物Pobは、車両周囲画像Pacに含まれることとなる。 For example, as shown in FIG. 3, it is assumed that there is a three-dimensional object Ob having a height component on the left front side of the vehicle Ca. As shown in FIGS. 5A and 5B, the three-dimensional object Ob is mapped to a position indicated by the three-dimensional object Pob in the three-dimensional space model SM. In this case, by setting the virtual viewpoint as indicated by the arrow A, the three-dimensional object Pob is included in the vehicle surrounding image Pac.
一方、図5(b)の矢印Bに示すように、立体物Obの存在する位置、すなわち、車両Bcaの左側位置から車両Bcaを見下ろすように仮想視点を設定した場合には、車両周囲画像Pacには立体物Pobが含まれない、すなわち、表示されない場合がある。車両Caに異常が生じている場合、作成する車両周囲画像Pacには、少なくとも異常の一部が含まれるように仮想視点を設定する必要がある。 On the other hand, as shown by the arrow B in FIG. 5B, when the virtual viewpoint is set so as to look down on the vehicle Bca from the position where the three-dimensional object Ob exists, that is, the left position of the vehicle Bca, the vehicle surrounding image Pac May not include the three-dimensional object Pob, that is, may not be displayed. When an abnormality occurs in the vehicle Ca, it is necessary to set a virtual viewpoint so that at least a part of the abnormality is included in the vehicle surrounding image Pac to be created.
図6は、仮想視点の計算概念を説明する説明図である。以下、仮想視点計算部10dによる仮想視点の計算、すなわち、三次元空間における仮想視点の位置および方向の計算方法について説明する。この計算方法には、4つのカメラ11a〜11dのうち一つのカメラ11a〜11dから得られる画像データのみに異常が写り込んでいる場合に適用される第1の手法と、複数のカメラ11a〜11dから得られる画像データに異常が写り込んでいる場合に適用される第2の手法とがある。以下の説明では、車両Caに生じている異常を車両Caの近傍に存在する立体物(例えば、不審者)Obと想定する。
FIG. 6 is an explanatory diagram for explaining the calculation concept of the virtual viewpoint. Hereinafter, the calculation of the virtual viewpoint by the virtual
まず、第1の手法について説明する。仮想視点計算部10dは、異常検出部12の検出結果に基づいて、車両Caに対する立体物Obの位置を認識する。例えば、図6(a)に示す位置に立体物Obが存在する場合、この立体物Obは、車両Caの左ドアミラーに取り付けられたカメラ11bから得られる画像データにしか写り込まない。
First, the first method will be described. Based on the detection result of the
立体物Obの地面座標をA、立体物Obを写すカメラ11bの地面座標をBとし、地面座標Aを通過しかつ線分ABと交差する垂線をCDとする。演算の前提となる座標は、車両Caを中心に考えている。この場合、仮想視点の方向(ベクトル)は、座標Cからほぼ座標Aに向かうベクトル30aから、座標Bからほぼ座標Aに向かうベクトル30cを経由して、座標Dからほぼ座標Aに向かうベクトル30eの範囲で、任意のベクトルを一つ選択することができる。当然、仮想視点のベクトルは、ベクトル30aからベクトル30cまでの間に存在し、ほぼ座標Aに向かうベクトル30bであっもよいし、ベクトル30cからベクトル30eまでの間に存在し、ほぼ座標Aに向かうベクトル30dであっもよい。換言すれば、仮想視点のベクトルは、垂線CDによって確定される領域のうち座標Bを含む領域内のいずれかの地点を始点として座標Aへと向かう任意のベクトルを選択することができる。
The ground coordinate of the three-dimensional object Ob is A, the ground coordinate of the
三次元空間モデルSMにおいて、立体物Obは、カメラ11a〜11dの位置から車両外側に向かって放射状にマッピングされる。そのため、前述のような手法で仮想視点のベクトルを設定することにより、車両周囲画像Pacを通じて車両Caに生じている異常を把握する上でユーザの理解を容易とする効果がある。
In the three-dimensional space model SM, the three-dimensional object Ob is radially mapped from the position of the
つぎに、第2の手法について説明する。仮想視点計算部10dは、異常検出部12の検出結果に基づいて、車両Caに対する立体物Obの位置を認識する。例えば、図6(b)に示す位置に立体物Obが存在する場合、この立体物Obは、車両Caの左ドアミラーに取り付けられたカメラ11bおよび車両Caのリアに取り付けられたカメラ11aから得られる画像データにそれぞれ写り込む。
Next, the second method will be described. Based on the detection result of the
まず、立体物Obの地面座標をEとし、一方のカメラである左ドアミラーのカメラ11bの地面座標をFとするとともに、他方のカメラであるリアのカメラ11aの地面座標をIとする。そして、地面座標Eを通過しかつ線分EFと交差する垂線をGHとする。また、地面座標Eを通過しかつ線分EIと交差する垂線をJKとする。この場合、仮想視点の方向(ベクトル)は、座標Hからほぼ座標Eに向かうベクトル40aから、座標Iからほぼ座標Eに向かうベクトル、座標Fからほぼ座標Eに向かうベクトル40cを経由して、座標Jからほぼ座標Eに向かうベクトル40dの範囲で、任意のベクトルを一つ選択することができる。当然、仮想視点のベクトルは、ベクトル40aから、座標Iからほぼ座標Eに向かうベクトルまでの間に存在し、ほぼ座標Eに向かうベクトル40bであっもよい。換言すれば、仮想視点のベクトルは、垂線JKによって確定される領域のうち座標Iを含む領域内であって、かつ垂線GHによって確定される領域のうち座標Fを含む領域内のいずれかの地点を始点として座標Eへと向かう任意のベクトルを選択することができる。
First, the ground coordinate of the three-dimensional object Ob is set to E, the ground coordinate of the
また、仮想視点の計算において、ベクトル(方向)とともに設定する仮想視点の位置は、作成する車両周囲画像Pacに車両の形状モデルPcaの少なくとも一部が含まれるように設定することが好ましい。このように仮想視点の位置を設定することにより、車両Caと立体物Obとの位置関係をユーザが把握しやすいという効果を得ることができる。なお、仮想視点の高さ方向の位置については、任意に設定することができる。 In the calculation of the virtual viewpoint, the position of the virtual viewpoint set together with the vector (direction) is preferably set so that at least a part of the vehicle shape model Pca is included in the vehicle surrounding image Pac to be created. By setting the position of the virtual viewpoint in this way, it is possible to obtain an effect that the user can easily grasp the positional relationship between the vehicle Ca and the three-dimensional object Ob. The position of the virtual viewpoint in the height direction can be arbitrarily set.
なお、異常検出部12として衝撃検出センサを用いる場合には、車両Caの前方、後方といったように衝撃が与えられた部位を特定することはできるものの、衝撃を与えた立体物Obの位置を具体的に把握することは困難であることがある。そこで、衝撃検出センサによる検出範囲毎に、車両Caに対する立体物Obの位置を予め設定しておき、これに基づいて立体物Obの位置を決定してもよい。例えば、車両Caのフロントに取り付けられた衝撃検出センサによって異常が検出された場合には、立体物Obの位置を車幅中心線上かつ車両Caから50cm離間した位置とするといった如くである。
In addition, when using an impact detection sensor as the
図7は、第1の実施形態にかかる車両周囲画像Pacの提示方法を示すフローチャートである。このフローチャートに示す処理は、本体装置1の制御ユニット10によって実行される。
FIG. 7 is a flowchart illustrating a method for presenting the vehicle surrounding image Pac according to the first embodiment. The process shown in this flowchart is executed by the
まず、ステップ1(S1)において、画像データ処理部10aは、撮影部11を構成する個々のカメラ11a〜11dから画像データをそれぞれ読み込む。そして、ステップ2(S2)において、異常判断部10bは、異常検出部12を構成する物体検出センサおよび衝撃検出センサからセンサ信号を読み込む。
First, in step 1 (S1), the image
ステップ3(S3)において、異常判断部10bは、異常検出部12からのセンサ信号に基づいて、車両Caに異常が生じているか否かを判断する。ステップ3において肯定判定された場合、すなわち、異常が発生している場合には、ステップ4(S4)に進む。一方、ステップ3において否定判定された場合、すなわち、異常が発生していない場合には、ステップ1の処理に戻る。
In Step 3 (S3), the
ステップ4において、制御ユニット10が所定の制御信号を通信部13に出力することにより、通信部13は、トリガー信号を外部装置2に対して送信する。このトリガー信号は、ユーザに対して車両Caに異常が生じたことを通知するための信号である。外部装置2において、通信部23がトリガー信号を受信した場合、制御ユニット20は、例えば、表示部22を制御することにより、その旨を表示するとともに、車両周囲画像Pacの作成を行うか否かの選択を表示する。制御ユニット20は、入力部21の操作信号を通じて、車両周囲画像Pacの作成を要求することを認識した場合には、所定の制御信号を通信部23に出力する。そして、通信部23は、車両周囲画像Pacの作成を要求するリクエスト信
号を本体装置1に対して送信する。一方、制御ユニット20は、入力部21の操作信号を通じて、車両周囲画像Pacの作成を要求しないことを認識した場合、または、ユーザによる入力部21の操作が所定時間無いことを判断した場合には、リクエスト信号の送信を通信部23へ指示しない。
In step 4, the
ステップ5(S5)において、制御ユニット10は、通信部13が外部装置2からリクエスト信号を受信したか否かを判断する。ステップ5において肯定判定された場合、すなわち、リクエスト信号を受信した場合には、ステップ6(S6)に進む。一方、ステップ5において否定判定された場合、すなわち、リクエスト信号を受信していない場合には、ステップ1の処理へ戻る。なお、外部装置2からリクエスト信号が応答性よく返信されない場合もあるので、ステップ5における否定判定の回数が所定回数以上となった場合に、ステップ1の処理に戻るようにしてもよい。
In step 5 (S5), the
ステップ6において、マッピング部10cは、カメラ11a〜11dから得られた個々の画像データに基づいてマッピング処理(投影マッピング)を行うことにより、空間データを作成する。
In Step 6, the
ステップ7(S7)において、仮想視点計算部10dは、異常検出部12の検出結果に基づいて前述の演算を行うことにより、仮想視点の位置および方向を計算し、これにより、仮想視点データを作成する。
In step 7 (S7), the virtual
ステップ8(S8)において、視点変換部10eは、空間データと、仮想視点データとに基づいて、車両周囲画像Pacを作成する。そして、ステップ9(S9)において、合成部10fは、車両周囲画像Pacに車両の形状モデルPcaを重畳することにより(重畳処理)、最終的な車両周囲画像Pacを作成する。
In Step 8 (S8), the
ステップ10(S10)において、制御ユニット10は、作成された車両周囲画像Pacの送信指示を通信部13に対して出力する。通信部13は、当該指示に応じて、車両周囲画像Pacを外部装置2に対して送信する。外部装置2において、通信部23が車両周囲画像Pacを受信した場合には、制御ユニット20は、例えば、表示部22を制御することにより、車両周囲画像Pacを表示する。
In step 10 (S10), the
このように本実施形態によれば、画像情報提供装置は、カメラ11a〜11dから出力される画像がマッピングされる三次元空間のモデルを視点変換することにより車両周囲画像Pacを作成する。ここで、視点変換を行う際には、車両Caに生じている異常の検出結果に基づいて、車両周囲画像Pacに車両Caに生じている異常が含まれるように仮想視点の計算を行う。
As described above, according to the present embodiment, the image information providing apparatus creates the vehicle surrounding image Pac by performing viewpoint conversion on the model of the three-dimensional space to which the images output from the
かかる構成によれば、車両Caに生じている異常という、ユーザの欲している視点から車両周囲画像Pacが作成される。これにより、車両周囲画像Pacを見た際にユーザが車両Caに生じている異常を容易に認識することができる画像情報を作成することが可能となる。 According to such a configuration, the vehicle surrounding image Pac is created from the viewpoint desired by the user, that is, an abnormality occurring in the vehicle Ca. This makes it possible to create image information that allows the user to easily recognize an abnormality occurring in the vehicle Ca when viewing the vehicle surrounding image Pac.
また、本実施形態において、車両周囲画像Pacは、ユーザが保有する外部装置2に送信されている。かかる構成によれば、ユーザにとって理解しやすい状態の画像情報(車両周囲画像Pac)が外部装置2に送信されるので、車両Caから離れた場所にいるユーザであっても、外部装置2を通じて車両周囲画像Pacを見た際に、車両Caに生じている異常を容易に認識することができる。
In the present embodiment, the vehicle surrounding image Pac is transmitted to the
また、本実施形態では、検出した異常の位置と、カメラ11a〜11dの車両Caへの
取り付け位置とに基づいて、仮想視点の計算が行われる。かかる構成によれば、車両Caに生じている異常が車両周囲画像Pac内に含まれる仮想視点を特定することができる。これにより、ユーザにとって認識し易い車両周囲画像Pacの作成が可能となる。
In the present embodiment, the virtual viewpoint is calculated based on the detected abnormal position and the positions where the
具体的には、例えば、車両Caに生じている異常が複数のカメラ11a〜11dのうち一のカメラ11bのみの撮影範囲に含まれる場合を想定する。この場合には、垂線CDによって確定される領域のうち座標Bを含む領域内のいずれかの地点を始点として座標Aへと向かう任意のベクトルを計算することにより、仮想視点の計算を行う。かかる構成によれば、車両Caに生じている異常が車両周囲画像Pac内に含まれる仮想視点を特定することができる。これにより、ユーザにとって認識し易い車両周囲画像Pacの作成が可能となる。
Specifically, for example, it is assumed that an abnormality occurring in the vehicle Ca is included in the shooting range of only one
また、例えば、車両Caに生じている異常が複数のカメラ11a〜11dのうち二つのカメラ11a,1bの撮影範囲のそれぞれに含まれる場合を想定する。この場合、垂線JKによって確定される領域のうち座標Iを含む領域内であって、かつ垂線GHによって確定される領域のうち座標Fを含む領域内のいずれかの地点を始点として座標Eへと向かう任意のベクトルを計算することにより、仮想視点の計算を行う。かかる構成によれば、車両Caに生じている異常が車両周囲画像Pac内に含まれる仮想視点を特定することができる。これにより、ユーザにとって認識し易い車両周囲画像Pacの作成が可能となる。
Further, for example, a case is assumed in which an abnormality occurring in the vehicle Ca is included in each of the shooting ranges of the two
また、本実施形態において、異常の検出とタイミング的に対応して、トリガー信号が外部装置2に送信される。かかる構成によれば、異常が生じるたびに車両周囲画像Pcaを外部装置2に送信するのではなく、第1次的に、トリガー信号が外部装置2送信される。これにより、車両周囲画像Pcaの作成を要求するか否かをユーザに確認することができるので、ユーザの判断で車両周囲画像Pcaの送信を決定することができる。これにより、ユーザが希望しないシーンで車両周囲画像Pcaが送信されるといった状況を抑制することができ、不要な通信コストの発生を抑制することができる。
In the present embodiment, a trigger signal is transmitted to the
また、本実施形態において、マッピング部10c、仮想視点計算部10d、視点変換部10e、合成部10fおよび通信部13は、外部装置2と独立した本体装置1に含まれている。これにより、本体装置1側にて車両周囲画像Pcaを作成することができる。
In the present embodiment, the
なお、本実施形態では、車両Caに異常が生じている場合に、本体装置1と外部装置2との間で車両周囲画像Pacのやりとりを行っている。しかしながら、外部装置2を通じてユーザが任意のタイミングでリクエスト信号を送信した場合に、本体装置1と外部装置2との間で車両周囲画像Pacのやりとりを行ってもよい。この場合、ユーザは、リクエスト信号とともに、あるいは、リクエスト信号そのものとして、仮想視点の位置および方向を任意に指定してもよい。なお、仮想視点の位置および方向をユーザに指定させる場合には、仮想視点の位置および方向の候補を予め複数用意しておき、複数の候補の中からユーザに選択させればよい。これにより、ユーザが車両Caから離れた場所にいる場合であっても、ユーザの希望する仮想視点から作成された車両周囲画像Pacを、ユーザの希望するタイミングで提供することが可能となる。
In the present embodiment, the vehicle surrounding image Pac is exchanged between the
また、本体装置1と、外部装置2とがそれぞれ自己位置を検出する機能を備えている場合には、以下に示す通信形態を採用してもよい。具体的には、本体装置1が外部装置2の位置情報を取得した場合、本体装置1は、外部装置2が狭域通信可能なエリアにいる場合には狭域通信を選択し、一方、外部装置がそのエリアにいない場合には公衆通信網を選択する。このように、本体装置1の通信部13が、外部装置2との通信経路を複数有して場合には、外部装置2との位置関係に応じて通信経路を選択してもよい。これにより、適切な通信経路を選択することにより、通信コストの低減を図ることができる。
In addition, when the
(第2の実施形態)
図8は、第2の実施形態にかかる外部装置2の構成を模式的に示すブロック図である。本実施形態にかかる画像情報提供装置が、第1の実施形態のそれと相違する点は、外部装置2自身が車両周囲画像Pacを作成することにある。この場合、本体装置1において、制御ユニット10は、マッピング部10cから合成部10fまでの各機能を省略することができる。第1の実施形態と共通する点については説明を省略することとし、以下、相違点を中心に説明を行う。
(Second Embodiment)
FIG. 8 is a block diagram schematically illustrating the configuration of the
本実施形態において、外部装置2の制御ユニット20は、これを機能的に捉えた場合、マッピング部20a、仮想視点計算部20b、視点変換部20cおよび合成部20dを有している。これらの機能は、第1の実施形態に示す本体装置1におけるマッピング部10c、仮想視点計算部10d、視点変換部10eおよび合成部10fと同様の機能を担っている。すなわち、制御ユニット20は、マッピング部10cから合成部10fの各機能により、所定の仮想視点を基準とした車両周囲画像Pacを作成することができ、また、自ら作成した車両周囲画像Pacを表示部22に表示することができる。
In the present embodiment, the
制御ユニット20は、ユーザの操作を通じて入力部21から車両周囲画像Pacの作成要求を認識すると、これにともない通信部23がリクエスト信号を本体装置1に対して送信する。本体装置1において、通信部13がリクエスト信号を受信すると、制御ユニット10(画像データ処理部10a)は、個々のカメラ11a〜11dにより撮影された画像データを読み込む。そして、通信部13は、読み込んだ画像データを外部装置2に対して送信する。そして、外部装置2において、通信部23が画像データを受信した場合には、制御ユニット20は画像データのそれぞれに基づいて車両周囲画像Pacを作成する。
When the
この場合、車両周囲画像Pacを作成する上で必要となる仮想視点は、予め設定された基準方向および基準位置を用いてもよいし、車両周囲画像Pacの取得要求を認識した際に、ユーザに仮想視点の位置および方向を指定させてもよい。 In this case, the virtual viewpoint that is necessary for creating the vehicle surrounding image Pac may use a preset reference direction and reference position, and when the user acquires a vehicle surrounding image Pac acquisition request, The position and direction of the virtual viewpoint may be designated.
また、外部装置2は、受信した画像データをもとに、ユーザによる入力部21の操作を通じて仮想視点の位置および方向を適宜変更されることにより、車両周囲画像Pacの仮想視点を適宜変更してもよい。
Further, the
一方、本体装置1において、制御ユニット10が外部装置2からリクエスト信号を受信した場合には、制御ユニット10(異常判断部10b)は、異常検出部12を構成する物体検出センサおよび衝撃検出センサからセンサ信号を読み込んでもよい。この場合、異常判断部10bは、異常検出部12からのセンサ信号に基づいて、異常が発生しているか否かを判断する。異常判断部10bが車両Caに異常が生じていると判断した場合には、画像データ処理部10aは、通信部23を介して各画像データとともに異常検出部12の検出結果を外部装置2に送信する。これにより、外部装置2は、異常検出部12の検出結果および画像データに基づいて、車両Caに生じている異常が含まれるように車両周囲画像Pを作成することができる。
On the other hand, in the
このように本実施形態において、通信部13は、外部装置2と独立した本体装置1に含まれており、マッピング部20a、仮想視点計算部20b、視点変換部20cおよび合成部10fは、外部装置2に含まれている。この場合、本体装置1は、外部装置2からリクエスト信号を受信した場合に、通信部13が外部装置2に対してカメラ11a〜11dから出力される画像データのそれぞれを送信する。
Thus, in the present embodiment, the
かかる構成によれば、画像データを受信さえすれば、本体装置1との通信を必要とする
ことなく、外部装置2により車両周囲画像Pacを作成することができる。当然、外部装置2はユーザが保持する装置であるため、車両周囲画像Pacの作成においては、入力部21の操作を通じて、任意に仮想視点を設定することも可能である。これにより、ユーザの希望する仮想視点の車両周囲画像Pacを作成することができるので、認識が容易な車両周囲画像Pacを提供することができる。
According to such a configuration, as long as image data is received, the vehicle surrounding image Pac can be created by the
また、本実施形態において、外部装置2からリクエスト信号を受信したタイミングにおいて異常が検出される場合には、カメラ11a〜11dから出力される画像データとともに、異常検出の検出結果が外部装置2に送信される。かかる構成によれば、異常検出の検出結果を参照することにより、外部装置2が、車両Caに生じている異常を含む車両周囲画像Pacを作成することが可能となる。これにより、車両周囲画像Pacを見た際にユーザが車両Caに生じている異常を容易に認識することができる画像情報を作成することが可能となる。
In the present embodiment, when an abnormality is detected at the timing when the request signal is received from the
なお、前述のように、外部装置2自身が本体装置1から送信される画像データに基づいて車両周囲画像Pacを作成する場合には、本体装置1は、以下に示す手法にて画像データを送信することもできる。
As described above, when the
第1の手法は、異常が写り込んでいる画像データを優先的に送信する手法である。本体装置1において、画像データ処理部10aは、異常判断部10bの判断結果に基づいて、各カメラ11a〜11dから得られる画像データのそれぞれを、異常が写り込んでいる画像データと、異常が写り込んでいない画像データとに分類する。つぎに、画像データ処理部10bは画像データの送信を通信部13に依頼する。この場合、送信部13は、異常が写り込んでいる画像データを外部装置2に優先的に送信し、その後、残余の画像データである、異常が写り込んでいない画像データを外部装置2に送信する。一方、外部装置2の制御ユニット20は、通信部23を介して画像データを受信すると、前述の通り、車両周囲画像Pacを作成する。この場合、制御ユニット20は、車両周囲画像Pacの作成の前に、優先的に送られた画像データ、すなわち、異常が写り込んでいる画像データを表示部22に表示してもよい。これにより、緊急度の高い画像データをいち早くユーザに表示することができる。
The first method is a method for preferentially transmitting image data in which an abnormality is reflected. In the
第2の手法は、異常が写り込んでいない画像データのデータ容量を、異常が写り込んでいる画像データのデータ容量よりも小さくして送信する手法である。例えば、本体装置1において、画像データ処理部10aは、各カメラ11a〜11dから得られる画像データのそれぞれを、異常が写り込んでいる画像データと、異常が写り込んでいない画像データとに分類する。つぎに、画像データ処理部10aは、異常が写り込んでいない画像データを処理対象として、例えば、カメラ11a〜11dからの出力データの解像度よりも解像度が低くなるような処理を行い、画像データのデータ容量が小さくする。そして、画像データ処理部10aは、異常が写り込んでいない画像データ(データ容量が小さい画像データ)、および、異常が写り込んでいる画像データのそれぞれを通信部13を介して外部装置2に送信する。これにより、画像データの送信時のデータ容量を低く抑えることができるので、通信コストの低減を図ることができる。
The second method is a method in which the data volume of image data in which no abnormality is reflected is made smaller than the data volume of image data in which an abnormality is reflected and transmitted. For example, in the
第3の手法は、送信対象となる各画像データのうち、表示時に不鮮明となる画像データについては送信しない手法である。例えば、夜間、車両の周囲に街灯が少ないといったように照度が不足する状況において車両周囲画像Pacを作成することを考える。このケースでは、各画像データから得られる画像(表示画像)がそもそも不鮮明となる。そのため、これらの画像データに基づいて車両周囲画像Pacを作成したとしても、車両周囲の状況の認識が難しく、車両周囲画像Pacからユーザが得られる情報は少ない。そこで、本体装置1において、画像データ処理部10aは、各カメラ11a〜11dから出力される画像デ
ータのそれぞれを処理対象として、画像データの鮮明度を判断する。鮮明度の判断手法としては、例えば、画像データを構成する全画素を対象に濃度値のヒストグラムを作成し、このヒストグラムを参考に鮮明度を判断するといった如くである。画像データ処理部10aは、予め設定された基準値と鮮明度とを比較し、鮮明度が低い画像データについては、外部装置2への送信候補からはずし、鮮明度が高い画像データのみを外部装置2へ送信する。かかる構成によれば、画像データの送信時のデータ容量を低く抑えることができるので、通信コストの低減を図ることができる。
The third method is a method that does not transmit image data that is unclear during display among the image data to be transmitted. For example, consider creating a vehicle surrounding image Pac in a situation where the illuminance is insufficient such that there are few street lamps around the vehicle at night. In this case, an image (display image) obtained from each image data is originally unclear. Therefore, even if the vehicle surrounding image Pac is created based on these image data, it is difficult to recognize the situation around the vehicle, and there is little information that the user can obtain from the vehicle surrounding image Pac. Therefore, in the
なお、上述した第1の手法から第3の手法は、それぞれ単独で用いることもできるが、これらを組み合わせて行ってもよい。 In addition, although the 1st method to the 3rd method mentioned above can each be used independently, you may carry out combining these.
また、第2の実施形態に示す手法では、外部装置1が車両周囲画像Pacを作成する関係上、本体装置1の制御ユニット10が車両周囲画像Pacを作成する機能(マッピング部10c〜合成部10f)を備えていない。しかしながら、車両周囲画像Pacを作成する機能を備えない外部装置1との間でも、車両周囲画像Pacのやりとりを可能とするため、第1の実施形態と同様に、本体装置1の制御ユニット10がマッピング部10c〜合成部10fを備えていてもよい。この場合、本体装置1は、通信相手が車両周囲画像Pacを作成する機能を有する外部装置1である場合には、画像データ(必要に応じて異常)を送信し、通信相手が車両周囲画像Pacを作成する機能を有しない外部装置1である場合には、車両周囲画像Pacを作成し、これを外部装置2に送信するといった如くである。
Further, in the method shown in the second embodiment, the
(第3の実施形態)
第3の実施形態にかかる画像情報提供装置が、第1の実施形態のそれと相違する点は、各画像データのマッピング対象となる三次元空間のモデルを作成することにある。三次元空間モデルSMを作成する理由は、高さ成分のある立体物Obと、三次元空間モデルSMとの位置が離れすぎいる場合には、車両周囲画像Pacに表現される立体物Pobが歪んでしまうといった事態が生じ得るからである。なお、第1の実施形態と共通する点については説明を省略することとし、以下、相違点を中心に説明を行う。
(Third embodiment)
The image information providing apparatus according to the third embodiment is different from that of the first embodiment in that a model of a three-dimensional space that is a mapping target of each image data is created. The reason for creating the three-dimensional space model SM is that if the position of the three-dimensional object Ob having a height component and the three-dimensional space model SM are too far apart, the three-dimensional object Pob represented in the vehicle surrounding image Pac is distorted. This is because a situation such as that can occur. Note that description of points that are the same as in the first embodiment will be omitted, and hereinafter, differences will be mainly described.
具体的には、マッピング部10cは、異常検出部12からのセンサ信号を取得し、立体物Obに関する車両Caからの距離(以下「立体物距離」という)を特定する。そして、マッピング部10cは、車両Caから立体物距離だけ離れた位置のマッピング先が、三次元空間モデルSMの側面領域と底面領域との境、あるいは、底面領域側となるように当該三次元空間モデルSMを作成する。この場合、三次元空間モデルSMは、車両Caの周囲の全域において、立体物距離だけ離れた位置から側面領域が立ち上がるようにしてもよいし、立体物Obの存在方向についてだけモデルを変形させてもよい。
Specifically, the
かかる構成によれば、立体物Obが三次元空間モデルSMにおいて車両から近い位置にマッピングされるので、立体物Obのゆがみが少ない車両周囲画像Pacを作成することができる。これにより、これにより、ユーザにとって認識し易い車両周囲画像Pacの作成が可能となる。 According to such a configuration, since the three-dimensional object Ob is mapped to a position close to the vehicle in the three-dimensional space model SM, a vehicle surrounding image Pac with less distortion of the three-dimensional object Ob can be created. This makes it possible to create a vehicle surrounding image Pac that is easy for the user to recognize.
なお、本実施形態に示す手法は、第1の実施形態に適用可能のみならず、第2の実施形態に示す外部装置2に適用してもよい。
Note that the method shown in the present embodiment is not only applicable to the first embodiment, but may be applied to the
以上、本発明の実施形態にかかる車両情報提供装置およびその方法について説明したが、本発明は上述した実施形態に限定されることなく、その発明の範囲内において種々の変形が可能であることはいうまでもない。 As mentioned above, although the vehicle information provision apparatus concerning the embodiment of the present invention and its method were explained, the present invention is not limited to the above-mentioned embodiment, and various modifications are possible within the scope of the present invention. Needless to say.
1 本体装置
10 制御ユニット
10a 画像データ処理部
10b 異常判断部
10c マッピング部
10d 仮想視点計算部
10e 視点変換部
10f 合成部
11 撮影部
11a〜11d カメラ
12 異常検出部
13 通信部
14 記憶部
2 外部装置
20 制御ユニット
20a マッピング部
20b 仮想視点計算部
20c 視点変換部
20d 合成部
21 入力部
22 表示部
23 通信部
24 記憶部
3 通信サーバ
DESCRIPTION OF
Claims (15)
車両から当該車両の周囲を撮影することにより、画像を出力する撮影手段と、
車両に発生した異常を検出する異常検出手段と、
前記撮影手段から出力される画像を、車両位置を座標系の基準とする三次元空間のモデルにマッピングすることにより、空間データを作成するマッピング手段と、
前記異常検出手段により検出された異常が発生した位置と、前記撮影手段の車両への取り付け位置とに基づいて、前記空間データを視点変換する視点変換手段により作成される車両周囲画像に前記検出された異常の位置が含まれるように前記三次元空間における仮想視点の位置および方向を計算する仮想視点計算手段と、
前記計算された仮想視点の位置および方向に基づいて前記空間データを視点変換することにより、前記仮想視点から眺めた画像となる車両周囲画像を作成する前記視点変換手段と、
前記視点変換手段により作成された車両周囲画像に、前記仮想視点計算手段により計算された仮想視点から眺めた車両の形状モデルを重畳する合成手段とを有することを特徴とする画像情報提供装置。 In an image information providing apparatus for providing image information to a user,
Photographing means for outputting an image by photographing the periphery of the vehicle from the vehicle;
An anomaly detecting means for detecting an anomaly occurring in the vehicle;
Mapping means for creating spatial data by mapping an image output from the photographing means to a model in a three-dimensional space with a vehicle position as a reference of a coordinate system;
Based on the position where the abnormality detected by the abnormality detection means has occurred and the position where the photographing means is attached to the vehicle, the detection is made in the vehicle surrounding image created by the viewpoint conversion means for changing the viewpoint of the spatial data. Virtual viewpoint calculation means for calculating the position and direction of the virtual viewpoint in the three-dimensional space so that the position of the abnormal is included,
By the spatial data to viewpoint conversion based on the position and direction of the computed virtual viewpoint, and the viewpoint conversion means for producing a vehicle surrounding image is an image viewed from the virtual viewpoint,
An image information providing apparatus comprising: a synthesis unit that superimposes a vehicle shape model viewed from a virtual viewpoint calculated by the virtual viewpoint calculation unit on a vehicle surrounding image created by the viewpoint conversion unit.
前記仮想視点計算手段は、前記車両に生じている異常が前記複数のカメラのうち一のカメラのみの撮影範囲に含まれる場合、前記異常の地面座標である第1の座標と前記一のカメラの地面座標である第2の座標とを結ぶ線分に対する、前記第1の座標を通過する垂線を演算し、前記垂線によって確定される領域のうち前記第2の座標を含む領域内のいずれかの地点を始点として前記第1の座標へと向かう任意のベクトルを計算することにより、前記仮想視点の計算を行うことを特徴とする請求項1に記載された画像情報提供装置。 The photographing means is composed of a plurality of cameras that photograph the surroundings of the vehicle in different directions,
When the abnormality occurring in the vehicle is included in the photographing range of only one camera among the plurality of cameras, the virtual viewpoint calculation means is configured to detect the first coordinates that are the ground coordinates of the abnormality and the one camera. A perpendicular line passing through the first coordinate is calculated with respect to a line segment connecting the second coordinate which is the ground coordinate, and any one of the areas including the second coordinate among the areas determined by the perpendicular is calculated. 2. The image information providing apparatus according to claim 1 , wherein the virtual viewpoint is calculated by calculating an arbitrary vector starting from a point and moving toward the first coordinate.
前記仮想視点計算手段は、前記車両に生じている異常が前記複数のカメラのうち二つのカメラの撮影範囲のそれぞれに含まれる場合、前記異常の地面座標である第1の座標と前記二つのカメラのうちの一方のカメラの地面座標である第2の座標とを結ぶ線分に対する、前記第1の座標を通過する第1の垂線を演算し、前記第1の座標と前記二つのカメラのうちの他方のカメラの地面座標である第3の座標とを結ぶ線分に対する、前記第1の座標を通過する第2の垂線を演算するとともに、前記第1の垂線によって確定される領域のうち前記第2の座標を含む領域内であって、かつ前記第2の垂線によって確定される領域のうち前記第3の座標を含む領域内のいずれかの地点を始点として前記第1の座標へと向かう任意のベクトルを計算することにより、前記仮想視点の計算を行うことを特徴とする請求項1に記載された画像情報提供装置。 The photographing means is composed of a plurality of cameras that photograph the surroundings of the vehicle in different directions,
The virtual viewpoint calculation means, when an abnormality occurring in the vehicle is included in each of the shooting ranges of two cameras of the plurality of cameras, the first coordinates and the two cameras which are the ground coordinates of the abnormality A first perpendicular line passing through the first coordinate with respect to a line segment connecting the second coordinate which is the ground coordinate of one of the cameras, and the first coordinate and the two cameras And calculating a second perpendicular line passing through the first coordinate with respect to a line segment connecting with the third coordinate which is the ground coordinate of the other camera, and among the regions determined by the first perpendicular line, Within the region including the second coordinates and starting from any point within the region including the third coordinates among the regions determined by the second perpendicular line, the heading is directed to the first coordinates. Compute any vector Accordingly, image information providing apparatus according to claim 1, characterized in that the calculation of the virtual viewpoint.
前記マッピング手段、前記仮想視点計算手段、前記視点変換手段および前記合成手段は、前記外部装置に含まれており、
前記通信手段は、前記外部装置から車両周囲画像の作成を要求するリクエスト信号を受信した場合、前記外部装置に対して前記撮影手段から出力される画像を送信することを特徴とする請求項4に記載された画像情報提供装置。 The communication means is included in a main device independent of the external device,
The mapping means, the virtual viewpoint calculation means, the viewpoint conversion means, and the synthesis means are included in the external device,
Said communication means, when receiving a request signal for requesting the creation of the vehicle surroundings image from the external device, to claim 4, characterized in that transmitting the image output from the imaging means to the external device The image information providing device described.
車両から当該車両の周囲を撮影することにより、画像を出力する撮影手段と、
車両に生じている異常を検出する異常検出手段と、
前記撮影手段から出力される画像を、車両位置を座標系の基準とする三次元空間のモデルにマッピングすることにより、空間データを作成するマッピング手段と、
前記三次元空間における仮想視点の位置および方向を計算する仮想視点計算手段と、
前記空間データを視点変換することにより、前記仮想視点計算手段により計算された仮想視点から眺めた画像となる車両周囲画像を作成する視点変換手段と、
前記視点変換手段により作成された車両周囲画像に、前記仮想視点計算手段により計算された仮想視点から眺めた車両の形状モデルを重畳する合成手段と、
前記合成手段により車両の形状モデルが重畳された車両周囲画像を、ユーザが保有する外部装置に送信する通信手段と、を有し、
前記仮想視点計算手段は、前記異常検出手段による検出結果に基づいて、前記視点変換手段により作成される車両周囲画像に前記車両に生じている異常が含まれるように前記仮想視点の計算を行い、
前記通信手段は、前記外部装置と独立した本体装置に含まれ、
前記マッピング手段、前記仮想視点計算手段、前記視点変換手段および前記合成手段は、前記外部装置に含まれており、
前記通信手段は、前記外部装置から車両周囲画像の作成を要求するリクエスト信号を受信した場合に、前記外部装置に対して前記撮影手段から出力される画像を送信し、
前記通信手段は、前記外部装置から前記リクエスト信号を受信したタイミングにおいて前記異常検出手段により異常が検出される場合には、前記撮影手段から出力される画像とともに、前記異常検出手段による検出結果を前記外部装置に送信することを特徴とする画像情報提供装置。 In an image information providing apparatus for providing image information to a user,
Photographing means for outputting an image by photographing the periphery of the vehicle from the vehicle;
An abnormality detecting means for detecting an abnormality occurring in the vehicle;
Mapping means for creating spatial data by mapping an image output from the photographing means to a model in a three-dimensional space with a vehicle position as a reference of a coordinate system;
Virtual viewpoint calculation means for calculating the position and direction of the virtual viewpoint in the three-dimensional space;
Viewpoint conversion means for creating a vehicle surrounding image to be an image viewed from the virtual viewpoint calculated by the virtual viewpoint calculation means by converting the viewpoint of the spatial data;
Combining means for superimposing a vehicle shape model viewed from the virtual viewpoint calculated by the virtual viewpoint calculation means on the vehicle surrounding image created by the viewpoint conversion means;
Communication means for transmitting a vehicle surrounding image in which a vehicle shape model is superimposed by the combining means to an external device held by the user,
The virtual viewpoint calculation means calculates the virtual viewpoint based on a detection result by the abnormality detection means so that an abnormality occurring in the vehicle is included in a vehicle surrounding image created by the viewpoint conversion means,
The communication means is included in a main device independent of the external device,
The mapping means, the virtual viewpoint calculation means, the viewpoint conversion means, and the synthesis means are included in the external device,
When the communication means receives a request signal for requesting creation of a vehicle surrounding image from the external device, the communication means transmits an image output from the photographing means to the external device,
The communication means, when an abnormality is detected by the abnormality detection means at the timing of receiving the request signal from the external device, together with the image output from the imaging means, the detection result by the abnormality detection means images information providing apparatus and transmits to the external device.
車両から当該車両の周囲を撮影することにより、画像を出力する撮影手段と、
車両に生じている異常を検出する異常検出手段と、
前記撮影手段から出力される画像を、車両位置を座標系の基準とする三次元空間のモデルにマッピングすることにより、空間データを作成するマッピング手段と、
前記三次元空間における仮想視点の位置および方向を計算する仮想視点計算手段と、
前記空間データを視点変換することにより、前記仮想視点計算手段により計算された仮想視点から眺めた画像となる車両周囲画像を作成する視点変換手段と、
前記視点変換手段により作成された車両周囲画像に、前記仮想視点計算手段により計算された仮想視点から眺めた車両の形状モデルを重畳する合成手段と、
前記合成手段により車両の形状モデルが重畳された車両周囲画像を、ユーザが保有する外部装置に送信する通信手段と、を有し、
前記仮想視点計算手段は、前記異常検出手段による検出結果に基づいて、前記視点変換手段により作成される車両周囲画像に前記車両に生じている異常が含まれるように前記仮想視点の計算を行い、
前記通信手段は、前記外部装置と独立した本体装置に含まれ、
前記マッピング手段、前記仮想視点計算手段、前記視点変換手段および前記合成手段は、前記外部装置に含まれており、
前記通信手段は、前記外部装置から車両周囲画像の作成を要求するリクエスト信号を受信した場合に、前記外部装置に対して前記撮影手段から出力される画像を送信し、
前記本体装置に含まれており、それぞれが異なる方向の車両の周囲を撮影する複数のカメラから構成される前記撮影手段から得られる画像のそれぞれを処理対象として、異常が写る画像を特定する処理手段をさらに有し、
前記通信手段は、前記処理手段の結果に基づいて、前記撮影手段から得られる複数の画像のうち、異常が写る画像を前記外部装置に対して優先的に送信することを特徴とする画像情報提供装置。 In an image information providing apparatus for providing image information to a user,
Photographing means for outputting an image by photographing the periphery of the vehicle from the vehicle;
An abnormality detecting means for detecting an abnormality occurring in the vehicle;
Mapping means for creating spatial data by mapping an image output from the photographing means to a model in a three-dimensional space with a vehicle position as a reference of a coordinate system;
Virtual viewpoint calculation means for calculating the position and direction of the virtual viewpoint in the three-dimensional space;
Viewpoint conversion means for creating a vehicle surrounding image to be an image viewed from the virtual viewpoint calculated by the virtual viewpoint calculation means by converting the viewpoint of the spatial data;
Combining means for superimposing a vehicle shape model viewed from the virtual viewpoint calculated by the virtual viewpoint calculation means on the vehicle surrounding image created by the viewpoint conversion means;
Communication means for transmitting a vehicle surrounding image in which a vehicle shape model is superimposed by the combining means to an external device held by the user,
The virtual viewpoint calculation means calculates the virtual viewpoint based on a detection result by the abnormality detection means so that an abnormality occurring in the vehicle is included in a vehicle surrounding image created by the viewpoint conversion means,
The communication means is included in a main device independent of the external device,
The mapping means, the virtual viewpoint calculation means, the viewpoint conversion means, and the synthesis means are included in the external device,
When the communication means receives a request signal for requesting creation of a vehicle surrounding image from the external device, the communication means transmits an image output from the photographing means to the external device,
A processing means for identifying an image in which an abnormality appears, with each of the images obtained from the photographing means that is included in the main body device and is composed of a plurality of cameras that photograph the surroundings of the vehicle in different directions. Further comprising
The communication means preferentially transmits an image showing an abnormality among the plurality of images obtained from the photographing means to the external device based on the result of the processing means. Equipment .
前記車両に取り付けられた撮影手段により、当該車両の周囲が撮像された画像を、車両位置を座標系の基準とする三次元空間のモデルにマッピングすることにより、空間データを作成する第1のステップと、
前記車両に発生した異常を検出し、前記検出された異常が発生した位置と、前記撮影手段の車両への取り付け位置とに基づいて、前記空間データを視点変換する視点変換手段により作成される車両周囲画像に前記検出された異常の位置が含まれるように前記三次元空間における仮想視点の位置および方向を計算する第2のステップと、
前記計算された仮想視点の位置および方向に基づいて前記空間データを視点変換することにより、前記第2のステップにおいて計算された仮想視点から眺めた画像となる車両周囲画像を作成する第3のステップと、
前記第3のステップにおいて作成された車両周囲画像に、前記第2のステップにおいて
計算された仮想視点から眺めた車両の形状モデルを重畳する第4のステップとを有することを特徴とする画像情報提供方法。
In an image information providing method for providing image information to a user by causing a control unit mounted on a vehicle to execute the following steps:
A first step of creating spatial data by mapping an image in which the periphery of the vehicle is imaged by an imaging unit attached to the vehicle to a model in a three-dimensional space with the vehicle position as a reference of a coordinate system When,
A vehicle that is detected by an abnormality that has occurred in the vehicle and that is created by a viewpoint conversion unit that converts the viewpoint of the spatial data based on a position where the detected abnormality has occurred and a position where the photographing unit is attached to the vehicle. A second step of calculating the position and direction of the virtual viewpoint in the three-dimensional space so that the detected position of the abnormality is included in the surrounding image;
A third step of creating a vehicle surrounding image that is an image viewed from the virtual viewpoint calculated in the second step by performing viewpoint conversion on the spatial data based on the calculated position and direction of the virtual viewpoint. When,
And a fourth step of superimposing the vehicle shape model viewed from the virtual viewpoint calculated in the second step on the vehicle surrounding image created in the third step. Method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010088430A JP5640433B2 (en) | 2010-04-07 | 2010-04-07 | Image information providing apparatus and image information providing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010088430A JP5640433B2 (en) | 2010-04-07 | 2010-04-07 | Image information providing apparatus and image information providing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011221686A JP2011221686A (en) | 2011-11-04 |
JP5640433B2 true JP5640433B2 (en) | 2014-12-17 |
Family
ID=45038621
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010088430A Active JP5640433B2 (en) | 2010-04-07 | 2010-04-07 | Image information providing apparatus and image information providing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5640433B2 (en) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5872764B2 (en) | 2010-12-06 | 2016-03-01 | 富士通テン株式会社 | Image display system |
WO2013008623A1 (en) * | 2011-07-12 | 2013-01-17 | 日産自動車株式会社 | Vehicle monitoring device, vehicle monitoring system, terminal device, and vehicle monitoring method |
JP5959264B2 (en) * | 2012-03-29 | 2016-08-02 | 三菱電機株式会社 | Image processing apparatus and method, and computer program |
WO2014148394A1 (en) * | 2013-03-19 | 2014-09-25 | 株式会社日立国際電気 | Image display device and image display method |
JP6261654B2 (en) * | 2016-05-31 | 2018-01-17 | 株式会社デンソーテン | Display device, display method, and program |
JP6419894B2 (en) * | 2017-06-02 | 2018-11-07 | 株式会社デンソーテン | Image processing apparatus, display apparatus, portable display apparatus, image processing method, display apparatus display method, portable display apparatus display method, and program |
JP6477796B2 (en) * | 2017-07-19 | 2019-03-06 | 本田技研工業株式会社 | Management device and management system |
JP7112191B2 (en) * | 2017-10-24 | 2022-08-03 | 株式会社デンソーテン | Image processing device and image processing method |
JP7254464B2 (en) | 2018-08-28 | 2023-04-10 | キヤノン株式会社 | Information processing device, control method for information processing device, and program |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002373386A (en) * | 2001-06-15 | 2002-12-26 | Ekishii:Kk | Security device and operation method therefor |
JP3652678B2 (en) * | 2001-10-15 | 2005-05-25 | 松下電器産業株式会社 | Vehicle surrounding monitoring apparatus and adjustment method thereof |
JP2003317177A (en) * | 2002-04-25 | 2003-11-07 | Aisin Aw Co Ltd | Apparatus, system, and method for monitoring vehicle |
JP4579145B2 (en) * | 2005-11-30 | 2010-11-10 | アルパイン株式会社 | Vehicle peripheral image display device |
-
2010
- 2010-04-07 JP JP2010088430A patent/JP5640433B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2011221686A (en) | 2011-11-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5640433B2 (en) | Image information providing apparatus and image information providing method | |
JP6937443B2 (en) | Imaging device and control method of imaging device | |
WO2019192359A1 (en) | Vehicle panoramic video display system and method, and vehicle controller | |
JP4478510B2 (en) | Camera system, camera, and camera control method | |
US10857974B2 (en) | Image display device, image display system, image display method and program | |
JP5057936B2 (en) | Bird's-eye image generation apparatus and method | |
KR101519209B1 (en) | Apparatus and method for providing image | |
WO2013047012A1 (en) | Vehicle surroundings monitoring device | |
JP4643860B2 (en) | VISUAL SUPPORT DEVICE AND SUPPORT METHOD FOR VEHICLE | |
JPWO2004106858A1 (en) | Stereo camera system and stereo optical module | |
JP2006050263A (en) | Image generation method and device | |
JP7283059B2 (en) | Perimeter monitoring device | |
JP2018101860A (en) | Work vehicle | |
JP2012040883A (en) | Device for generating image of surroundings of vehicle | |
JP7467402B2 (en) | IMAGE PROCESSING SYSTEM, MOBILE DEVICE, IMAGE PROCESSING METHOD, AND COMPUTER PROGRAM | |
JP6260174B2 (en) | Surveillance image presentation system | |
CN108569298A (en) | Method and apparatus for enhancing vertical view image | |
US11195295B2 (en) | Control system, method of performing analysis and storage medium | |
CN110942023A (en) | Indication method, device and equipment for vehicle vision blind area and storage medium | |
JP2005269010A (en) | Image creating device, program and method | |
US11482159B2 (en) | Display control device, display control method, and display control program | |
JP2011028634A (en) | Image display device for vehicle | |
CN208682729U (en) | A kind of 360 degree of panorama intelligent correction parking systems | |
KR101452372B1 (en) | Method and System for Controlling Camera | |
KR101975853B1 (en) | Blind spot monitoring system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130227 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130917 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130918 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140401 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140416 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140930 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20141013 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5640433 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |