JP2009206702A - Image processor and image processing method - Google Patents
Image processor and image processing method Download PDFInfo
- Publication number
- JP2009206702A JP2009206702A JP2008045780A JP2008045780A JP2009206702A JP 2009206702 A JP2009206702 A JP 2009206702A JP 2008045780 A JP2008045780 A JP 2008045780A JP 2008045780 A JP2008045780 A JP 2008045780A JP 2009206702 A JP2009206702 A JP 2009206702A
- Authority
- JP
- Japan
- Prior art keywords
- image
- vehicle
- viewpoint
- image processing
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、車両周辺が撮影された画像の画像処理を行う画像処理装置、画像処理方法に関するものである。 The present invention relates to an image processing apparatus and an image processing method for performing image processing on an image obtained by photographing the periphery of a vehicle.
従来、運転者の視点を補うために、車両の操作に応じて車載カメラからの画像を表示する技術が存在する。例えば、車両の走行状態、走行速度、ハンドルの操舵角、物体検出センサよる検出結果の状況に応じて、運転者に表示する画像を変更し、車両運転の際の安全確認支援を行う画像処理装置がある(例えば、特許文献1参照)。また、車両に搭載されたカメラから移動体を検出する方法がある(例えば、特許文献2参照)。
しかしながら、車両操作や走行状態、物体検出センサによる情報を用いても、運転者に有用な画像を提供できない場合がある。例えば、信号の無い狭いT字路で右左折をするために徐行する場合の運転者に有用な情報と、駐車場で徐行する場合の運転者に有用な情報とは、異なる。前者は自車前方の左右が見える画像であり、後者は自車を真上から俯瞰する画像である。しかし、車両操作の情報などからでは両者を区別することはできない。つまり、車両の走行状態、走行速度、ハンドル操舵角、物体検出結果を用いても、運転者に適切な画像を生成できない場合がある。 However, there are cases where a useful image cannot be provided to the driver even if the vehicle operation, the running state, or information from the object detection sensor is used. For example, information useful to the driver when driving slowly to make a right or left turn on a narrow T-junction without a signal is different from information useful to the driver when driving slowly in a parking lot. The former is an image in which the left and right in front of the own vehicle can be seen, and the latter is an image in which the own vehicle is viewed from directly above. However, the two cannot be distinguished from the vehicle operation information. In other words, there may be a case where an image appropriate for the driver cannot be generated even using the vehicle traveling state, traveling speed, steering angle, and object detection result.
本発明は上述した問題点を解決するためになされたものであり、自車位置においてユーザに有用な画像を生成する画像処理装置、画像処理方法を提供することを目的とする。 SUMMARY An advantage of some aspects of the invention is that it provides an image processing apparatus and an image processing method for generating an image useful for a user at a vehicle position.
上述した課題を解決するため、本発明の一態様は、車両に搭載される画像処理装置であって、複数のカメラにより撮影された撮影画像を取得する画像取得部と、前記車両の位置に関する情報である車両位置の認識を行う位置認識部と、前記位置認識部により認識された車両位置の種別である位置種別を認識する位置種別認識部と、前記位置種別認識部により認識された位置種別に基づいて、視点を決定する視点決定部と、前記画像取得部により取得された撮影画像に基づいて、前記視点決定部により決定された視点から見た画像を出力画像として生成する画像生成部とを備える。このような画像処理装置によれば、自車位置においてユーザに有用な画像を生成することができる。 In order to solve the above-described problem, an aspect of the present invention is an image processing device mounted on a vehicle, an image acquisition unit that acquires captured images captured by a plurality of cameras, and information on the position of the vehicle A position recognition unit that recognizes a vehicle position, a position type recognition unit that recognizes a position type that is a type of vehicle position recognized by the position recognition unit, and a position type recognized by the position type recognition unit. A viewpoint determination unit that determines a viewpoint, and an image generation unit that generates, as an output image, an image viewed from the viewpoint determined by the viewpoint determination unit based on the captured image acquired by the image acquisition unit. Prepare. According to such an image processing device, an image useful for the user can be generated at the vehicle position.
また、本発明に係る画像処理装置において、前記画像生成部は、前記撮影画像を所定の形状に投影して投影画像とし、前記視点から該投影画像を見た画像を前記出力画像として生成しても良い。このような画像処理装置によれば、複数の撮影画像に基づいて任意の視点からの出力画像を生成することができる。 Further, in the image processing device according to the present invention, the image generation unit projects the captured image onto a predetermined shape as a projection image, and generates an image obtained by viewing the projection image from the viewpoint as the output image. Also good. According to such an image processing device, an output image from an arbitrary viewpoint can be generated based on a plurality of captured images.
また、本発明に係る画像処理装置において、前記視点決定部は、前記位置種別と前記視点の対応付けを取得し、前記位置種別認識部により認識された位置種別と該対応付けとに基づいて、前記出力画像の視点を決定しても良い。このような画像処理装置によれば、位置種別に適した視点を選択することができる。 In the image processing device according to the present invention, the viewpoint determination unit acquires the association between the position type and the viewpoint, and based on the position type recognized by the position type recognition unit and the association, The viewpoint of the output image may be determined. According to such an image processing apparatus, a viewpoint suitable for the position type can be selected.
また、本発明に係る画像処理装置において、前記位置種別は、登録された位置を含んでも良い。このような画像処理装置によれば、位置種別を登録することができる。 In the image processing apparatus according to the present invention, the position type may include a registered position. According to such an image processing apparatus, the position type can be registered.
また、本発明に係る画像処理装置において、前記位置種別認識部は、地図情報を取得し、該地図情報と前記車両位置とに基づいて、位置種別を認識しても良い。このような画像処理装置によれば、自車位置から位置種別を認識することができる。 In the image processing device according to the present invention, the position type recognition unit may acquire map information and recognize the position type based on the map information and the vehicle position. According to such an image processing apparatus, the position type can be recognized from the own vehicle position.
また、本発明の一態様は、車両周辺が撮影された画像の画像処理を行う画像処理方法であって、複数のカメラにより撮影された撮影画像を取得し、前記車両の位置に関する情報である車両位置の認識を行い、認識された車両位置の種別である位置種別を認識し、認識された位置種別に基づいて、視点を決定し、取得された撮影画像に基づいて、決定された視点から見た画像を出力画像として生成することを行う。このような画像処理方法によれば、自車位置においてユーザに有用な画像を生成することができる Another embodiment of the present invention is an image processing method for performing image processing of an image obtained by photographing the periphery of a vehicle, and is a vehicle that obtains captured images captured by a plurality of cameras and is information regarding the position of the vehicle. Recognize the position, recognize the position type that is the recognized vehicle position type, determine the viewpoint based on the recognized position type, and view from the determined viewpoint based on the acquired captured image. The generated image is generated as an output image. According to such an image processing method, an image useful for the user can be generated at the vehicle position.
また、本発明の構成要素、または構成要素の任意の組合せを、方法、装置、システム、記録媒体、データ構造などに適用したものも本発明に含む。 Moreover, what applied the component of this invention, or arbitrary combinations of a component to a method, an apparatus, a system, a recording medium, a data structure, etc. is also contained in this invention.
開示の画像処理装置、画像処理方法によれば、自車位置においてユーザに有用な画像を生成することができる。 According to the disclosed image processing apparatus and image processing method, it is possible to generate an image useful to the user at the vehicle position.
以下、本発明の実施の形態について図面を参照しつつ説明する。 Embodiments of the present invention will be described below with reference to the drawings.
まず、本実施の形態に係る車両用画像処理装置の構成について説明する。 First, the configuration of the vehicle image processing apparatus according to the present embodiment will be described.
図1は、本実施の形態に係る車両用画像処理装置の構成の一例を示すブロック図である。この車両用画像処理装置は、画像撮影部1、車両状況検知・認識部2、画像処理部3、画像表示部4を備える。
FIG. 1 is a block diagram showing an example of the configuration of the vehicle image processing apparatus according to the present embodiment. The vehicle image processing apparatus includes an
画像撮影部1は、車両に取り付けられたN個のカメラ11と、予め各カメラ11の位置情報(カメラパラメータ)を格納するカメラパラメータテーブル1a、各カメラ11により撮影された画像(撮影画像)を一時的に記憶する画像データバッファ1b(画像取得部)を備える。本実施の形態では、カメラ11の数Nを4とする。
The
図2は、本実施の形態に係るカメラパラメータテーブルの一例を示す表である。カメラパラメータテーブル1aは、各カメラ11について、カメラ番号、自車座標系における位置座標(X,Y,Z)、方位角、仰角、光軸周り角、画角の情報が格納されている。各値の定義は、例えば特許文献1に記載の定義を用いる。
FIG. 2 is a table showing an example of the camera parameter table according to the present embodiment. The camera parameter table 1a stores information about the camera number, position coordinates (X, Y, Z) in the host vehicle coordinate system, azimuth angle, elevation angle, angle around the optical axis, and angle of view for each camera 11. The definition of each value uses the definition of
図3は、本実施の形態に係るカメラの配置の一例について車両左方から見た配置図である。図4は、本実施の形態に係るカメラの配置の一例について車両上方から見た配置図である。図5は、本実施の形態に係るカメラの配置の一例について車両前方から見た配置図である。4個のカメラ11は、それぞれカメラ番号1,2,3,4が付与され、それぞれ車両前方、車両右方、車両後方、車両左方を撮影する。
FIG. 3 is a layout view of an example of the camera layout according to the present embodiment as viewed from the left side of the vehicle. FIG. 4 is a layout view of an example of the camera layout according to the present embodiment as viewed from above the vehicle. FIG. 5 is a layout view of an example of the camera layout according to the present embodiment as viewed from the front of the vehicle. The four cameras 11 are assigned
図6は、本実施の形態に係る撮影画像の一例を示す図である。この図において、左上の画像は、後方カメラによる撮影画像である。同様に、右上の画像は、前方カメラによる撮影画像である。同様に、左下の画像は、右方カメラによる撮影画像である。同様に、右下の画像は、左方カメラによる撮影画像である。 FIG. 6 is a diagram illustrating an example of a captured image according to the present embodiment. In this figure, the upper left image is an image taken by the rear camera. Similarly, the upper right image is an image taken by the front camera. Similarly, the lower left image is an image taken by the right camera. Similarly, the lower right image is an image taken by the left camera.
図7は、本実施の形態に係る画像処理部により生成された出力画像の一例を示す図である。この出力画像は、撮影画像を画像処理した結果と、予め設定された自車の形状とが表示される。 FIG. 7 is a diagram illustrating an example of an output image generated by the image processing unit according to the present embodiment. This output image displays the result of image processing of the captured image and a preset shape of the vehicle.
本実施の形態では、自車座標系を用いる。図8は、本実施の形態に係る自車座標系の一例を示す図である。自車座標系は、自車の任意の一点を原点Oとした3次元の直交座標系である。本実施の形態では、走行方向をX軸、地面と平行で走行方向に対して右方向に直交する軸をY軸、XY平面と直交する上方向をZ軸とする。また、原点は4つのカメラ11の座標の重心とする。上述したカメラパラメータテーブル1aには、カメラ11設置時に自車座標系で計測された位置座標X、Y、Zと方位角、仰角、光軸周り角の情報が格納されている。 In the present embodiment, the host vehicle coordinate system is used. FIG. 8 is a diagram illustrating an example of the host vehicle coordinate system according to the present embodiment. The own vehicle coordinate system is a three-dimensional orthogonal coordinate system in which an arbitrary point of the own vehicle is an origin O. In the present embodiment, the traveling direction is the X axis, the axis parallel to the ground and orthogonal to the right direction with respect to the traveling direction is the Y axis, and the upward direction orthogonal to the XY plane is the Z axis. The origin is the center of gravity of the coordinates of the four cameras 11. The camera parameter table 1a described above stores information on the position coordinates X, Y, and Z, the azimuth angle, the elevation angle, and the optical axis angle measured in the vehicle coordinate system when the camera 11 is installed.
画像データバッファ1bには、各カメラ11により撮影された画像が一時的に蓄積される。本実施の形態において、後述の車両状況検知・認識部2の接近物体認識部25が自車への接近物体を検知するために、画像データバッファ10は各カメラ11の画像を時間軸方向に2標本以上蓄積する。たとえばカメラ11が1フレーム(画像)の撮像に33ミリ秒かかるとすると、画像データバッファ10は現時点で取得したフレームと33ミリ秒前に取得したフレームとを保持する。カメラが4台あるので、画像データバッファ1bは、常に8枚の画像を蓄積する。
Images taken by the cameras 11 are temporarily stored in the image data buffer 1b. In the present embodiment, in order for the approaching object recognition unit 25 of the vehicle condition detection /
車両状況検知・認識部2は、位置・進行方向検知部21(位置認識部)、地図情報DB(database)22、位置種別認識部23、運転状態検知部24(運転情報取得部)、接近物体認識部25(物体検知部)を備える。
The vehicle state detection /
位置・進行方向検知部21は、自車位置情報(緯度、経度、進行方向)(車両位置)を取得する。ここで、位置・進行方向検知部21は、位置種別認識部23または画像処理部3から要求があった場合、自車位置情報を要求元に返す。位置・進行方向検知部21は、GPS(Global Positioning Systems)位置計測装置と電子コンパス装置などを用いて実装される。
The position / traveling direction detection unit 21 acquires own vehicle position information (latitude, longitude, traveling direction) (vehicle position). Here, when there is a request from the position
地図情報DB22は、カーナビゲーションシステムなどのデータベースを用いる。地図情報DB22は、ハードディスクを用いて実装される。図9は、本実施の形態に係る地図情報DBの一例を示す表である。ノード(地点)毎に、緯度、経度、リンク数(そのノードに接続された道路の数)、接続ノード番号(そのノードに道路を介して接続された他のノードの数)、位置種別が格納されている。 The map information DB 22 uses a database such as a car navigation system. The map information DB 22 is mounted using a hard disk. FIG. 9 is a table showing an example of the map information DB according to the present embodiment. For each node (point), the latitude, longitude, number of links (number of roads connected to that node), connection node number (number of other nodes connected to that node via roads), and location type are stored. Has been.
位置種別認識部23は、車両の現在位置の種別である位置種別を認識する。本実施の形態では位置種別を「交差点(T字路以外、十字路等)」「駐車場」「T字路」「その他(前記4種類以外)」とする。位置種別認識部23は、地図情報DB22を参照し、位置・進行方向検知部21から得られた緯度及び経度に対応する位置種別を取得する。認識結果は、画像処理部3に送られる。なお、本実施の形態では位置種別を4種類としたが、道路幅(走行車線の幅)などを組み合わせることにより、位置種別の種類を増やしてもよい。
The position
運転状態検知部24は、車両操作状態と運転状態対応テーブルから運転状態を検知し、検知結果を画像処理部3へ送る。本実施の形態において、車両操作状態は、「ハンドルの舵角」「方向指示器」「走行速度」「セレクトレバーのレンジ」の4種類である。また、本実施の形態において、運転状態は「直進」「左折」「右折」「左車線変更」「右車線変更」「徐行」「後退」「その他」の8種類の値を取る。
The driving state detection unit 24 detects the driving state from the vehicle operation state and the driving state correspondence table, and sends the detection result to the
図10は、本実施の形態に係る運転状態対応テーブルの一例を示す表である。図中の「−−−」は条件が無いことを意味する。例えば、図中の7段目の操作状態は、「セレクトレバーのレンジ」が「R」である場合、「ハンドルの舵角」や「方向指示器」などの3種類の状態に関わらず「後退」とする。本実施の形態において、車両操作状態は、4項目であるが、他に項目を追加してもよい。たとえば「アクセルペダルの踏み込み量」や「ブレーキペダルの踏み込み量」などがある。運転状態についても「左折」「右折」の代わりに、「左折中」「左折待ち停止中」「右折中」「右折待ち停止中」などとしてもよい。 FIG. 10 is a table showing an example of the operation state correspondence table according to the present embodiment. “---” in the figure means that there is no condition. For example, when the “select lever range” is “R”, the operation state of the seventh stage in the figure is “reverse” regardless of three types of states such as “steering angle of steering wheel” and “direction indicator”. " In the present embodiment, the vehicle operation state has four items, but other items may be added. For example, there are “depressed amount of accelerator pedal” and “depressed amount of brake pedal”. Regarding the driving state, instead of “left turn” and “right turn”, “turning left”, “waiting left turn”, “turning right”, “waiting right turn”, etc. may be used.
接近物体認識部25は、自車周辺の物体の有無を調べる。画像データバッファ1bに蓄積された画像を画像処理部3経由で取得し、蓄積された8枚の画像から自車に接近している物体の有無を検知する。接近物体が存在する場合、各物体の自車座標系における位置(X,Y,Z)も検知する。移動物体の有無の検出方法は、たとえば特許文献2に記載された方法を用いる。
The approaching object recognition unit 25 checks for the presence of an object around the host vehicle. The image accumulated in the image data buffer 1b is acquired via the
画像生成部3は、画像生成部31(視点決定部及び画像生成部)、画像パラメータDB32を備える。
The
画像生成部31は、撮影画像を投影形状に投影して投影画像を生成し、各部から得た情報に基づいて仮想視点を決定し、投影画像を仮想視点から見た画像を出力画像として生成する。本実施の形態において、画像生成部31は、画像撮影部1から、各カメラ11で撮像した画像と、各カメラ11の位置や角度などの情報を得る。また、画像生成部31は、車両状況検知・認識部2から、緯度、経度、進行情報、車両の運転状態、自車への接近物体の数と各物体位置座標を得る。また、画像生成部31は、画像パラメータDB32から画像生成に必要な画像パラメータを得る。
The image generation unit 31 projects a captured image onto a projection shape to generate a projection image, determines a virtual viewpoint based on information obtained from each unit, and generates an image obtained by viewing the projection image from the virtual viewpoint as an output image. . In the present embodiment, the image generation unit 31 obtains the image captured by each camera 11 and information such as the position and angle of each camera 11 from the
画像パラメータDB32は画像生成に必要なパラメータなどが予め定められているデータベースである。図11は、本実施の形態に係る画像パラメータDBの一例を示す表である。本実施の形態における画像パラメータDB32は、登録位置DB321、位置種別DB322、運転状態DB333、接近物体数DB324、画像生成設定DB325を備える。
The image parameter DB 32 is a database in which parameters necessary for image generation are determined in advance. FIG. 11 is a table showing an example of the image parameter DB according to the present embodiment. The image parameter DB 32 in the present embodiment includes a registered position DB 321, a position type DB 322, a driving state DB 333, an approaching
図12は、本実施の形態に係る登録位置DBの一例を示す表である。登録位置DB321は、ユーザにより登録された位置である登録位置(登録名、緯度、経度)と、その位置で表示させる出力画像の生成に用いる設定(画像生成設定)とが定義されている。例えば、自宅駐車場として登録された緯度・経度を中心として半径20メートル以内に自車が存在する場合、画像生成部31は、画像生成設定PDを用いて、自車を俯瞰する出力画像を生成する。画像生成設定PDについては後述する画像生成設定DB325における出力画像の設定を表している。
FIG. 12 is a table showing an example of the registration position DB according to the present embodiment. The registered position DB 321 defines a registered position (registered name, latitude, longitude) that is a position registered by the user, and settings (image generation settings) used to generate an output image to be displayed at the position. For example, when the host vehicle exists within a radius of 20 meters centering on the latitude and longitude registered as the home parking lot, the image generation unit 31 generates an output image overlooking the host vehicle using the image generation setting PD. To do. The image generation setting PD represents an output image setting in an image
図13は、本実施の形態に係る位置種別DBの一例を示す表である。位置種別DB322は、位置種別と、その位置種別に対して用いる画像生成設定とが定義されている。なお、本実施の形態において、位置種別が「交差点」である場合の画像生成設定は定義されない。画像生成設定が定義されていない位置種別では、後述するように車両の運転状態等により画像生成設定を決定する。 FIG. 13 is a table showing an example of the position type DB according to the present embodiment. The position type DB 322 defines a position type and an image generation setting used for the position type. In the present embodiment, the image generation setting when the position type is “intersection” is not defined. In a position type for which no image generation setting is defined, the image generation setting is determined according to the driving state of the vehicle and the like as will be described later.
図14は、本実施の形態に係る運転状態DBの一例を示す表である。運転状態DB323は、運転状態と、その運転状態に対して用いる画像生成設定とが定義されている。なお、本実施の形態において、運転状態が「直進」の場合の画像生成設定は定義されない。画像生成設定が定義されていない運転状態では、後述するように接近物体数等により画像生成設定を決定する。 FIG. 14 is a table showing an example of the operation state DB according to the present embodiment. The operation state DB 323 defines an operation state and an image generation setting used for the operation state. In the present embodiment, the image generation setting when the driving state is “straight ahead” is not defined. In the driving state where the image generation setting is not defined, the image generation setting is determined based on the number of approaching objects and the like as will be described later.
図15は、本実施の形態に係る接近物体数DBの一例を示す表である。接近物体数DB324は、接近物体数と、その接近物体数に対して用いる画像生成設定とが定義されている。なお、本実施の形態において、接近物体数が0である場合の画像生成設定は定義されない。
FIG. 15 is a table showing an example of the approaching object number DB according to the present embodiment. The approaching
図16は、本実施の形態に係る画像生成設定DBの一例を示す表である。画像生成設定DB325は、生成する出力画像に必要なパラメータとして、投影形状を決定するための投影形状パラメータ、仮想視点を決定するための仮想視点パラメータを格納する。本実施の形態では、投影形状を球面とする。図17は、本実施の形態に係る投影形状の一例を示す式である。投影形状パラメータは、この式における球の半径Rとする。X,Y,Zは、自車座標系である。
FIG. 16 is a table showing an example of the image generation setting DB according to the present embodiment. The image
本実施の形態においては、画像生成設定DB325における画像生成設定として、画像生成設定PA,PB,PC,PD,PE,PFが定義される。画像生成設定PA,PB,PC,PDは、予め仮想視点パラメータが設定される。
In the present embodiment, image generation settings PA, PB, PC, PD, PE, and PF are defined as image generation settings in the image
画像生成設定PAは、自車の左後方が見通せる出力画像を生成する設定である。画像生成設定PBは、自車の右後方が見通せる出力画像を生成する設定である。画像生成設定PCは、自車の後方が見通せる出力画像を生成する設定である。画像生成設定PDは、自車を俯瞰する出力画像を生成する設定である。画像生成設定PEは、接近物体が映る出力画像を生成する設定であり、予め設定された仮想視点パラメータに基づいて、出力画像に接近物体が映るような仮想視点パラメータが決定される。画像生成設定PFは、自車前方の左右が見渡せる出力画像を生成する設定であり、前方カメラの撮影画像をそのまま出力画像とする。 The image generation setting PA is a setting for generating an output image through which the left rear of the host vehicle can be seen. The image generation setting PB is a setting for generating an output image through which the right rear of the host vehicle can be seen. The image generation setting PC is a setting for generating an output image through which the back of the vehicle can be seen. The image generation setting PD is a setting for generating an output image overlooking the host vehicle. The image generation setting PE is a setting for generating an output image in which an approaching object is reflected, and a virtual viewpoint parameter that allows an approaching object to be reflected in the output image is determined based on a preset virtual viewpoint parameter. The image generation setting PF is a setting for generating an output image in which the left and right in front of the host vehicle can be seen, and an image captured by the front camera is used as an output image as it is.
画像生成部31は、各カメラ11により撮影された撮影画像を投影形状へ投影して投影画像を生成する。図18は、本実施の形態に係る投影画像の一例を示す図である。投影画像は、カメラパラメータテーブル1aのカメラパラメータと各カメラ11により得られた撮影画像とを用いて生成される。ここで、自車は、投影形状の下部に配置される。 The image generation unit 31 generates a projection image by projecting a captured image captured by each camera 11 onto a projection shape. FIG. 18 is a diagram showing an example of a projected image according to the present embodiment. The projection image is generated using the camera parameters in the camera parameter table 1a and the captured images obtained by the cameras 11. Here, the own vehicle is arranged below the projected shape.
更に、画像生成部31は、仮想視点パラメータの値を用いて投影画像を2次元平面に投影して出力画像を得る。複数のカメラにより得られた撮影画像をカメラの位置・方角などに基づいて立体形状に投影する方法、投影した結果を用いて仮想視点から画像を生成する方法は、例えば特許文献1に記載の方法を用いる。
Further, the image generation unit 31 projects the projection image on a two-dimensional plane using the value of the virtual viewpoint parameter to obtain an output image. A method for projecting captured images obtained by a plurality of cameras into a three-dimensional shape based on camera positions and directions, and a method for generating an image from a virtual viewpoint using the projection results are described in, for example,
画像表示部4は、画像処理部3により生成された出力画像を表示する。
The
次に、画像生成設定PEの仮想視点の決定方法について説明する。 Next, a method for determining the virtual viewpoint of the image generation setting PE will be described.
接近物体検知部25は、画像データバッファ1bに格納された撮影画像を用いて接近物体の検出を行う。本実施の形態において、接近物体の検出は、左方、右方、後方カメラの撮影画像のみを用い、前方カメラの撮影画像を用いない。また、接近物体が検出された場合において運転者に有用な仮想視点として、予め仮想視点a,b,c,d,eが設定される。仮想視点を決定する仮想視点パラメータとして、投影画像に対する仮想視点の座標と方向が設定される。 The approaching object detection unit 25 detects an approaching object using the captured image stored in the image data buffer 1b. In the present embodiment, the detection of the approaching object uses only the captured images of the left, right, and rear cameras, and does not use the captured images of the front camera. In addition, virtual viewpoints a, b, c, d, and e are set in advance as virtual viewpoints useful to the driver when an approaching object is detected. As virtual viewpoint parameters for determining the virtual viewpoint, the coordinates and direction of the virtual viewpoint with respect to the projection image are set.
図19は、本実施の形態に係る仮想視点aの一例を示す図である。図20は、本実施の形態に係る仮想視点bの一例を示す図である。図21は、本実施の形態に係る仮想視点cの一例を示す図である。図22は、本実施の形態に係る仮想視点dの一例を示す図である。図23は、本実施の形態に係る仮想視点eの一例を示す図である。仮想視点aは、自車の右方から自車の左後方を見る視点である。仮想視点bは、自車の左方から自車の右後方を見る視点である。仮想視点cは、自車の右方から自車の後方を見る視点である。仮想視点dは、自車の左方から自車の後方を見る視点である。仮想視点eは、自車の前方から自車の後方を見る視点であり、左方、右方、後方カメラの撮影画像がほぼ全て映る仮想視点である。 FIG. 19 is a diagram illustrating an example of the virtual viewpoint a according to the present embodiment. FIG. 20 is a diagram illustrating an example of the virtual viewpoint b according to the present embodiment. FIG. 21 is a diagram illustrating an example of the virtual viewpoint c according to the present embodiment. FIG. 22 is a diagram illustrating an example of the virtual viewpoint d according to the present embodiment. FIG. 23 is a diagram illustrating an example of the virtual viewpoint e according to the present embodiment. The virtual viewpoint a is a viewpoint in which the left rear side of the own vehicle is viewed from the right side of the own vehicle. The virtual viewpoint b is a viewpoint for viewing the right rear side of the own vehicle from the left side of the own vehicle. The virtual viewpoint c is a viewpoint in which the rear side of the own vehicle is viewed from the right side of the own vehicle. The virtual viewpoint d is a viewpoint in which the rear side of the own vehicle is viewed from the left side of the own vehicle. The virtual viewpoint e is a viewpoint in which the rear of the host vehicle is viewed from the front of the host vehicle, and is a virtual viewpoint in which almost all captured images of the left, right, and rear cameras are shown.
接近物体が検出されると、画像生成部31は、仮想視点a,b,c,dのそれぞれを用いた出力画像において、接近物体の外接四角形の中心点Aの座標(X_A,Y_A)、自車座標系の原点B(X_B,Y_B)の座標、点Aと点Bの中点C(X_C,Y_C)の座標を求める。 When the approaching object is detected, the image generation unit 31 detects the coordinates (X_A, Y_A) of the center point A of the circumscribed rectangle of the approaching object in the output image using each of the virtual viewpoints a, b, c, and d. The coordinates of the origin B (X_B, Y_B) of the vehicle coordinate system and the coordinates of the midpoint C (X_C, Y_C) of the point A and the point B are obtained.
図24は、本実施の形態に係る接近物体が1個の場合の仮想視点bの出力画像の一例を示す図である。ここで、出力画像の左下を原点O’、横軸をX’軸、縦軸をY’軸とする。また、接近物体の外接四角形の各頂点の座標のうち、左端のX’座標をX_left、上端のY’座標をY_top、右端のX’座標をX_right、下端のY’座標をY_bottomとする。また、また、出力画像の中心点をDとする。図25は、本実施の形態に係る接近物体の外接四角形の位置の条件を示す式である。ここでW,Hは、それぞれ出力画像の幅と高さである。画像生成部31は、X_left、Y_top、X_right、Y_bottomがこの条件を満たす仮想視点を使用し、この条件を満たさない仮想視点を使用しない。 FIG. 24 is a diagram illustrating an example of an output image of the virtual viewpoint b when there is one approaching object according to the present embodiment. Here, the lower left of the output image is the origin O ′, the horizontal axis is the X ′ axis, and the vertical axis is the Y ′ axis. Further, among the coordinates of the vertices of the circumscribed rectangle of the approaching object, the X ′ coordinate at the left end is X_left, the Y ′ coordinate at the upper end is Y_top, the X ′ coordinate at the right end is X_right, and the Y ′ coordinate at the lower end is Y_bottom. Also, let D be the center point of the output image. FIG. 25 is an expression showing the condition of the position of the circumscribed rectangle of the approaching object according to the present embodiment. Here, W and H are the width and height of the output image, respectively. The image generation unit 31 uses a virtual viewpoint in which X_left, Y_top, X_right, and Y_bottom satisfy this condition, and does not use a virtual viewpoint that does not satisfy this condition.
更に、画像生成部31は、接近物体の外接四角形の位置の条件を満たす仮想視点のうち、線分CDの距離が最小になる仮想視点を選択する。また、仮想視点a,b,c,dの全てが接近物体の外接四角形の位置の条件を満たさない場合、画像生成部31は、仮想視点eを使用する。 Further, the image generation unit 31 selects a virtual viewpoint that minimizes the distance of the line segment CD from among the virtual viewpoints that satisfy the condition of the position of the circumscribed rectangle of the approaching object. Further, when all of the virtual viewpoints a, b, c, and d do not satisfy the condition of the position of the circumscribed rectangle of the approaching object, the image generation unit 31 uses the virtual viewpoint e.
なお、画像生成部31は、線分CD間の距離を求める上で、仮想視点パラメータを初期値の近傍で変化させても良い。たとえば、仮想視点のX座標が10に設定されている場合、画像生成部31は、X座標を5や15などに変化させた場合の線分CD間の距離をそれぞれ求め、その距離が最小となる仮想視点パラメータを選択する。また、画像生成部31は、同様にしてX座標以外の仮想視点パラメータを変化させても良い。変化させる仮想視点パラメータの組み合わせの数は、画像生成部31の処理性能に合わせて変更しても良い。 Note that the image generation unit 31 may change the virtual viewpoint parameter in the vicinity of the initial value in obtaining the distance between the line segments CD. For example, when the X coordinate of the virtual viewpoint is set to 10, the image generation unit 31 obtains the distance between the line segments CD when the X coordinate is changed to 5 or 15 and the distance is the minimum. The virtual viewpoint parameter to be selected is selected. Similarly, the image generation unit 31 may change virtual viewpoint parameters other than the X coordinate. The number of virtual viewpoint parameter combinations to be changed may be changed according to the processing performance of the image generation unit 31.
次に、接近物体が2個以上の場合について説明する。各接近物体の外接四角形の中心をA1,A2,….とし、これらの点の重心を点A’とする。また、点A’と自車座標系の原点Bとの中点をC、画像座標系の中心をDとする。このとき、画像生成部31は、接近物体の外接四角形の位置の条件を満たす仮想視点のうち、線分CDの距離を最小にする仮想視点を選択する。 Next, a case where there are two or more approaching objects will be described. The center of the circumscribed rectangle of each approaching object is A1, A2,. And the center of gravity of these points is point A ′. Also, let C be the midpoint between the point A 'and the origin B of the host vehicle coordinate system, and D be the center of the image coordinate system. At this time, the image generation unit 31 selects a virtual viewpoint that minimizes the distance of the line segment CD among the virtual viewpoints that satisfy the condition of the position of the circumscribed rectangle of the approaching object.
図26は、本実施の形態に係る接近物体が2個の場合の仮想視点bの出力画像の一例を示す図である。この場合、A1とA2を結ぶ線の重心(中点)がA’となる。 FIG. 26 is a diagram illustrating an example of an output image of the virtual viewpoint b when there are two approaching objects according to the present embodiment. In this case, the center of gravity (middle point) of the line connecting A1 and A2 is A '.
また、接近物体の外接四角形の位置の条件を満たし、且つ検知された複数の接近物体が同時に出力画像に映るような仮想視点が存在しない場合、画像生成部31は、自車に近い接近物体や自車への接近速度が大きい接近物体のみを優先して出力画像に表示させる仮想視点を選択する。 In addition, when there is no virtual viewpoint that satisfies the condition of the position of the circumscribed rectangle of the approaching object and a plurality of detected approaching objects appear in the output image at the same time, the image generation unit 31 A virtual viewpoint to be displayed in the output image with priority given only to an approaching object having a high approach speed to the host vehicle is selected.
また、同一の接近物体が互いに異なる複数のカメラ11に撮影された場合、画像生成部31は、複数の撮影画像が同一の物体を映していることを認識する必要がある。例えば、左方カメラと後方カメラに同一の接近物体(車など)が映っている場合、接近物体の数を重複して数えないように両者が同一であることを認識する必要がある。 When the same approaching object is captured by a plurality of different cameras 11, the image generation unit 31 needs to recognize that the plurality of captured images show the same object. For example, when the same approaching object (such as a car) is shown in the left camera and the rear camera, it is necessary to recognize that they are the same so that the number of approaching objects is not counted repeatedly.
複数のカメラ11による撮影画像に同一物体が映っている場合、各撮影画像の端に物体が映っているはずである。例えば左カメラと後方カメラに同一物体が映っている場合、左方カメラの撮影画像の左端と後方カメラの撮影画像の右端とが接近物体の領域として検知される。よって、左方カメラの撮影画像の左端にある所定の画素領域と後方カメラの撮影画像の右端にある所定の画素領域に接近物体が検知された場合、画像生成部31は、それらを同一物体として認識する。 When the same object is reflected in the images captured by the plurality of cameras 11, the object should be reflected at the end of each captured image. For example, when the same object is shown in the left camera and the rear camera, the left end of the image captured by the left camera and the right end of the image captured by the rear camera are detected as the approaching object region. Therefore, when an approaching object is detected in the predetermined pixel region at the left end of the captured image of the left camera and the predetermined pixel region at the right end of the captured image of the rear camera, the image generation unit 31 sets them as the same object. recognize.
上述した仮想視点の決定方法により、自車の少なくとも一部と接近物体の両者が生成画像内に映ることが可能になる。従来、出力画像の中心に接近物体の中心を表示する技術はあったが、これでは自車が映らない場合があり、その場合、ユーザは接近物体との距離感が分かりにくい。一方、本実施の形態に係る出力画像は両者の距離感を分かりやすく表示することができる。 With the above-described virtual viewpoint determination method, at least a part of the own vehicle and the approaching object can be reflected in the generated image. Conventionally, there has been a technique for displaying the center of an approaching object at the center of the output image. However, in this case, the vehicle may not be reflected, and in this case, the user cannot easily understand the distance to the approaching object. On the other hand, the output image according to the present embodiment can display the sense of distance between them in an easy-to-understand manner.
次に、仮想視点を示す視点画像について説明する。 Next, a viewpoint image indicating a virtual viewpoint will be described.
視点画像は、出力画像の仮想視点を運転者に分かりやすく示す画像であり、出力画像と共に、あるいは出力画像中に表示される。 The viewpoint image is an image that clearly shows the virtual viewpoint of the output image to the driver, and is displayed together with or in the output image.
画像生成設定が切り替わった時点で、ユーザは仮想視点を瞬時に把握しにくい場合がある。出力画像と共に、仮想視点を示す視点画像を表示することにより、 When the image generation setting is switched, the user may not easily grasp the virtual viewpoint instantaneously. By displaying the viewpoint image showing the virtual viewpoint along with the output image,
予め仮想視点の方位角α(自車座標系のy軸とのなす角)の範囲(視点領域)で定義された視点領域が複数設定される。また、予め視点領域毎に、その視点領域から見た自車の画像(自車画像)が格納されている。図27は、本実施の形態に係る視点領域の一例を示す図である。本実施の形態において、仮想視点の方位角に対して、6個の視点領域T1〜T6が定義されている。 A plurality of viewpoint areas defined in advance in the range (viewpoint area) of the azimuth angle α of the virtual viewpoint (the angle formed with the y-axis of the host vehicle coordinate system) are set. In addition, an image of the own vehicle (own vehicle image) viewed from the viewpoint area is stored in advance for each viewpoint area. FIG. 27 is a diagram showing an example of the viewpoint area according to the present embodiment. In the present embodiment, six viewpoint regions T1 to T6 are defined with respect to the azimuth angle of the virtual viewpoint.
図28は、本実施の形態に係る視点領域と自車画像の対応付けの一例を示す表である。視点領域と自車画像の対応付けとして、αの範囲毎に、視点領域の番号、自車画像が定義されている。画像生成部31は、この対応付けとαの値とに従って、視点画像に用いる自車画像を選択する。 FIG. 28 is a table showing an example of the correspondence between the viewpoint area and the vehicle image according to the present embodiment. As the association between the viewpoint area and the own vehicle image, the viewpoint area number and the own vehicle image are defined for each range of α. The image generation unit 31 selects the vehicle image used for the viewpoint image according to the association and the value of α.
図29は、本実施の形態に係る自車画像の一例を示す図である。Vaは、自車の右方から見た自車の画像であり、仮想視点が自車の右方に存在する場合に用いられる。Vbは、自車の前方から見た自車の画像であり、仮想視点が自車の前方に存在する場合に用いられる。Vcは、自車の後方から見た自車の画像であり、仮想視点が自車の後方に存在する場合に用いられる。 FIG. 29 is a diagram showing an example of the own vehicle image according to the present embodiment. Va is an image of the host vehicle viewed from the right side of the host vehicle, and is used when the virtual viewpoint exists on the right side of the host vehicle. Vb is an image of the host vehicle viewed from the front of the host vehicle, and is used when the virtual viewpoint exists in front of the host vehicle. Vc is an image of the vehicle viewed from the back of the vehicle, and is used when the virtual viewpoint exists behind the vehicle.
更に、画像生成部31は、選択した自車画像に、仮想視点を表すカメラの図形(カメラマーク)を配置することにより、視点画像を生成する。予め自車画像は格子状に区切られ、自車画像内の格子が仮想視点の座標に対応付けられる。 Furthermore, the image generation unit 31 generates a viewpoint image by placing a camera figure (camera mark) representing a virtual viewpoint on the selected vehicle image. The host vehicle image is divided in advance in a grid pattern, and the grid in the host vehicle image is associated with the coordinates of the virtual viewpoint.
図30は、本実施の形態に係る自車画像におけるカメラマークの配置の一例を示す図である。この例では、自車画像としてVaが選択された場合を示す。画像生成部31は、Va内の領域を格子状の領域M1,M2,・・・に分割し、仮想視点のx座標とz座標に対応するVa内の格子にカメラマークを配置する。例えば仮想視点のx座標が−20〜−10、z座標が30以上のときは領域M1にカメラマークを配置するというように決めておく。つぎに、画像生成部31は、仮想視点パラメータの仰角の値を用いてカメラマークの向きを決定する。 FIG. 30 is a diagram showing an example of the arrangement of camera marks in the own vehicle image according to the present embodiment. In this example, Va is selected as the vehicle image. The image generation unit 31 divides the region in Va into lattice-like regions M1, M2,..., And places camera marks on the lattice in Va corresponding to the x coordinate and the z coordinate of the virtual viewpoint. For example, when the x coordinate of the virtual viewpoint is −20 to −10 and the z coordinate is 30 or more, the camera mark is determined to be arranged in the region M1. Next, the image generation unit 31 determines the orientation of the camera mark using the elevation angle value of the virtual viewpoint parameter.
図31は、本実施の形態に係る視点画像が付加された出力画像の一例を示す図である。本実施の形態において、画像生成部31は、出力画像内の右下部分に視点画像を配置する。 FIG. 31 is a diagram illustrating an example of an output image to which a viewpoint image according to the present embodiment is added. In the present embodiment, the image generation unit 31 arranges the viewpoint image in the lower right part of the output image.
また、仮想視点パラメータが無い場合、つまり画像生成設定PFの場合、画像生成部31は、カメラパラメータを用いて視点画像を生成する。 Further, when there is no virtual viewpoint parameter, that is, in the case of the image generation setting PF, the image generation unit 31 generates a viewpoint image using the camera parameter.
なお、画像生成部31は、仮想視点の切り替え時、切り替え前の仮想視点から切り替え後の仮想視点までを補間した仮想視点を生成し、補間した仮想視点を用いて、切り替え前の出力画像から切り替え後の出力画像までを連続的に変化させた出力画像を生成しても良い。 The image generation unit 31 generates a virtual viewpoint obtained by interpolating from the virtual viewpoint before switching to the virtual viewpoint after switching when switching the virtual viewpoint, and switches from the output image before switching using the interpolated virtual viewpoint. An output image obtained by continuously changing up to the subsequent output image may be generated.
本実施の形態に係る車両用画像処理装置は、CPU及び記憶装置により実現されても良い。このとき、位置・進行方向検知部21、地図情報DB(database)22、位置種別認識部23、運転状態検知部24、接近物体認識部25、画像生成部3は、CPUにより実行されるプログラムとして記憶装置に格納される。また、本実施の形態に係る車両用画像処理装置は、カーナビゲーションシステムに適用することができる。
The vehicular image processing apparatus according to the present embodiment may be realized by a CPU and a storage device. At this time, the position / traveling direction detection unit 21, the map information DB (database) 22, the position
次に、本実施の形態に係る車両用画像処理装置の動作について説明する。 Next, the operation of the vehicle image processing apparatus according to this embodiment will be described.
図32は、本実施の形態に係る車両用画像処理装置の動作の一例を示すフローチャートである。画像撮影部1の各カメラ11により撮像された撮影画像は、画像データバッファ1aへ一時的に蓄積される。
FIG. 32 is a flowchart illustrating an example of the operation of the vehicle image processing device according to the present embodiment. The captured image captured by each camera 11 of the
最初に、位置・進行方向検知部21が自車位置(緯度、経度、進行方向)を取得し、画像処理部3へ送る(S1)。自車位置を取得した画像処理部3は、登録位置DB321を参照し、自車位置が登録位置のいずれかに該当するか否かの判定を行う(S2)。ここで、画像処理部3は、自車位置が登録位置の半径20メートル以内であれば、自車位置が登録位置に該当すると判定する。
First, the position / traveling direction detection unit 21 acquires the vehicle position (latitude, longitude, traveling direction) and sends it to the image processing unit 3 (S1). The
自車位置が登録位置に該当する場合(S2,Y)、画像処理部3は、自車位置に対応する画像生成設定を登録位置DB321により決定し、画像生成設定に従って出力画像を生成し(S9)、画像表示部4に表示させる(S10)。次に、画像処理部3は、自車の運転が終了しているか否かの判定を行い(S11)、終了していれば(S11,Y)、このフローは終了し、終了していなければ(S11,N)、処理S1に戻る。なお、自車の運転が終了しているかどうかは、自車のエンジンがかかっているか否かで識別すればよい。
When the own vehicle position corresponds to the registered position (S2, Y), the
自車位置が登録位置に該当しない場合(S2,N)、位置種別認識部23は、位置・進行方向検知部21から自車位置を取得し、地図情報DB22から自車位置の位置種別を認識し、認識結果を画像処理部3に送る(S3)。次に、画像処理部3は、位置種別DB322を参照し、取得した位置種別に対応する画像生成設定が存在するか否かの判定を行う(S4)。
When the own vehicle position does not correspond to the registered position (S2, N), the position
取得した位置種別に対応する画像生成設定が存在する場合(S4,Y)、画像処理部3は、取得した位置種別に対応する画像生成設定を位置種別DB322により決定し、処理S9へ移行する。
When there is an image generation setting corresponding to the acquired position type (S4, Y), the
取得した位置種別に対応する画像生成設定が存在しない場合(S4,N)、運転状態検知部24が車両の操作状態から運転状態を検知し、検知結果を画像処理部3に送る(S5)。次に、画像処理部3は、運転状態DB323を参照し、取得した運転状態に対応する画像生成設定が存在するか否かの判定を行う(S6)。
When there is no image generation setting corresponding to the acquired position type (S4, N), the driving state detection unit 24 detects the driving state from the operation state of the vehicle, and sends the detection result to the image processing unit 3 (S5). Next, the
取得した運転状態に対応する画像生成設定が存在する場合(S6,Y)、画像処理部3は、取得した運転状態に対応する画像生成設定を運転状態DB323により決定し、処理S9へ移行する。
When the image generation setting corresponding to the acquired driving state exists (S6, Y), the
取得した運転状態に対応する画像生成設定が存在しない場合(S6,N)、接近物体検知部25は、自車への接近物体を検知し、検知結果を画像処理部3に送る(S7)。次に、画像処理部3は、接近物体数DB324を参照し、取得した接近物体数に対応する画像生成設定が存在するか否かの判定を行う(S8)。
When there is no image generation setting corresponding to the acquired driving state (S6, N), the approaching object detection unit 25 detects an approaching object to the host vehicle and sends the detection result to the image processing unit 3 (S7). Next, the
取得した接近物体数に対応する画像生成設定が存在する場合(S8,Y)、画像処理部3は、取得した接近物体数に対応する画像生成設定を接近物体数DB324により決定し、処理S9へ移行する。
When the image generation setting corresponding to the acquired approaching object number exists (S8, Y), the
取得した接近物体数に対応する画像生成設定が存在しない場合(S8,N)、処理S11へ移行する。 When there is no image generation setting corresponding to the acquired number of approaching objects (S8, N), the process proceeds to S11.
本実施の形態によれば、車両状況として、車両の現在位置の位置種別、運転状態、接近物体の数等を認識することができる。これにより、多様な車両状況に対して適切な出力画像を設定することができ、有用な画像を表示することが可能になる。 According to the present embodiment, it is possible to recognize the position of the current position of the vehicle, the driving state, the number of approaching objects, and the like as the vehicle situation. Thereby, an appropriate output image can be set for various vehicle situations, and a useful image can be displayed.
さらに、ユーザが予め登録した位置に対応して出力画像の設定を変更するができるため、たとえば「自宅駐車場」や「自宅から勤務地までの道における特定の場所」など車両状況検知・認識部2では識別することが難しい状況でも有用な画像を表示することが可能になる。 Furthermore, since the setting of the output image can be changed corresponding to the position registered in advance by the user, for example, a vehicle status detection / recognition unit such as “home parking lot” or “a specific place on the road from home to work place” 2 makes it possible to display useful images even in situations where it is difficult to identify.
本発明は、その精神または主要な特徴から逸脱することなく、他の様々な形で実施することができる。そのため、前述の実施の形態は、あらゆる点で単なる例示に過ぎず、限定的に解釈してはならない。本発明の範囲は、特許請求の範囲によって示すものであって、明細書本文には、何ら拘束されない。更に、特許請求の範囲の均等範囲に属する全ての変形、様々な改良、代替および改質は、全て本発明の範囲内のものである。 The present invention can be implemented in various other forms without departing from the spirit or main features thereof. Therefore, the above-described embodiment is merely an example in all respects and should not be interpreted in a limited manner. The scope of the present invention is shown by the scope of claims, and is not restricted by the text of the specification. Further, all modifications, various improvements, alternatives and modifications belonging to the equivalent scope of the claims are all within the scope of the present invention.
以上の実施の形態に関し、更に以下の付記を開示する。 Regarding the above embodiment, the following additional notes are disclosed.
(付記1) 車両に搭載される画像処理装置であって、
複数のカメラにより撮影された撮影画像を取得する画像取得部と、
前記車両の位置に関する情報である車両位置の認識を行う位置認識部と、
前記位置認識部により認識された車両位置の種別である位置種別を認識する位置種別認識部と、
前記位置種別認識部により認識された位置種別に基づいて、視点を決定する視点決定部と、
前記画像取得部により取得された撮影画像に基づいて、前記視点決定部により決定された視点から見た画像を出力画像として生成する画像生成部と、
を備える画像処理装置。
(付記2) 付記1に記載の画像処理装置において、
前記画像生成部は、前記撮影画像を所定の形状に投影して投影画像とし、前記視点から該投影画像を見た画像を前記出力画像として生成する画像処理装置。
(付記3) 付記1に記載の画像処理装置において、
前記視点決定部は、前記位置種別と前記視点の対応付けを取得し、前記位置種別認識部により認識された位置種別と該対応付けとに基づいて、前記出力画像の視点を決定する画像処理装置。
(付記4) 付記1に記載の画像処理装置において、
前記位置種別は、登録された位置を含む画像処理装置。
(付記5) 付記1に記載の画像処理装置において、
前記位置種別認識部は、地図情報を取得し、該地図情報と前記車両位置とに基づいて、位置種別を認識する画像処理装置。
(付記6) 付記1に記載の画像処理装置において、
更に、前記車両の運転に関する情報である運転情報を取得する運転情報取得部を備え、
前記視点決定部は、前記位置種別認識部により認識された位置種別と視点の対応付けが無い場合、前記運転情報取得部により取得された運転情報に基づいて視点を決定する画像処理装置。
(付記7) 付記6に記載の画像処理装置において、
前記視点決定部は、前記運転情報と前記視点の対応付けを取得し、前記運転情報取得部により取得された運転情報と該対応付けとに基づいて、前記出力画像の視点を決定する画像処理装置。
(付記8) 付記1に記載の画像処理装置において、
更に、前記車両の周囲の物体の位置を検知する物体検知部を備え、
前記視点決定部は、前記位置種別認識部により認識された位置種別と視点の対応付けが無い場合、前記物体検知部により検知された物体の位置に基づいて視点を決定する画像処理装置。
(付記9) 付記8に記載の画像処理装置において、
前記視点決定部は、前記物体検知部により検知された物体の位置と前記車両の位置とが前記出力画像に映るように前記出力画像の視点を決定する画像処理装置。
(付記10) 付記1に記載の画像処理装置において、
更に、前記画像生成部により生成された出力画像を表示する画像処理装置。
(付記11) 付記1に記載の画像処理装置において、
前記画像生成部は更に、前記視点決定部により決定された視点を表す視点画像を前記出力画像に含める画像処理装置。
(付記12) 付記11に記載の画像処理装置において、
前記視点画像は、前記視点決定部により決定された視点から見た前記車両の画像である画像処理装置。
(付記13) 車両周辺が撮影された画像の画像処理を行う画像処理方法であって、
複数のカメラにより撮影された撮影画像を取得し、
前記車両の位置に関する情報である車両位置の認識を行い、
認識された車両位置の種別である位置種別を認識し、
認識された位置種別に基づいて、視点を決定し、
取得された撮影画像に基づいて、決定された視点から見た画像を出力画像として生成する
ことを行う画像処理方法。
(付記14) 付記13に記載の画像処理方法において、
前記撮影画像を所定の形状に投影して投影画像とし、前記視点から該投影画像を見た画像を前記出力画像として生成する画像処理方法。
(付記15) 付記13に記載の画像処理方法において、
前記位置種別と前記視点の対応付けを取得し、認識された位置種別と該対応付けとに基づいて、前記出力画像の視点を決定する画像処理方法。
(付記16) 付記13に記載の画像処理方法において、
前記位置種別は、登録された位置を含む画像処理方法。
(付記17) 付記13に記載の画像処理方法において、
地図情報を取得し、該地図情報と前記車両位置とに基づいて、位置種別を認識する画像処理方法。
(付記18) 付記13に記載の画像処理方法において、
更に、前記車両の運転に関する情報である運転情報を取得し、
前記位置種別認識部により認識された位置種別と視点の対応付けが無い場合、取得された運転情報に基づいて視点を決定する画像処理方法。
(付記19) 付記18に記載の画像処理方法において、
前記運転情報と前記視点の対応付けを取得し、前記運転情報取得部により取得された運転情報と該対応付けとに基づいて、前記出力画像の視点を決定する画像処理方法。
(付記20) 付記13に記載の画像処理方法において、
更に、前記車両の周囲の物体の位置を検知し、
前記位置種別認識部により認識された位置種別と視点の対応付けが無い場合、検知された物体の位置に基づいて視点を決定する画像処理方法。
(Appendix 1) An image processing apparatus mounted on a vehicle,
An image acquisition unit for acquiring captured images captured by a plurality of cameras;
A position recognition unit for recognizing a vehicle position, which is information relating to the position of the vehicle;
A position type recognition unit for recognizing a position type that is a type of vehicle position recognized by the position recognition unit;
A viewpoint determination unit that determines a viewpoint based on the position type recognized by the position type recognition unit;
An image generation unit that generates, as an output image, an image viewed from the viewpoint determined by the viewpoint determination unit based on the captured image acquired by the image acquisition unit;
An image processing apparatus comprising:
(Supplementary Note 2) In the image processing apparatus according to
The image generation unit is an image processing apparatus that projects the captured image into a predetermined shape to form a projection image, and generates an image obtained by viewing the projection image from the viewpoint as the output image.
(Supplementary Note 3) In the image processing apparatus according to
The viewpoint determination unit acquires an association between the position type and the viewpoint, and determines the viewpoint of the output image based on the position type recognized by the position type recognition unit and the association. .
(Supplementary Note 4) In the image processing apparatus according to
The position type is an image processing apparatus including a registered position.
(Supplementary Note 5) In the image processing apparatus according to
The position type recognition unit is an image processing apparatus that acquires map information and recognizes a position type based on the map information and the vehicle position.
(Supplementary note 6) In the image processing apparatus according to
And a driving information acquisition unit that acquires driving information that is information related to driving of the vehicle,
The viewpoint determination unit is an image processing device that determines a viewpoint based on driving information acquired by the driving information acquisition unit when there is no association between the position type recognized by the position type recognition unit and the viewpoint.
(Supplementary note 7) In the image processing apparatus according to supplementary note 6,
The viewpoint determination unit acquires an association between the driving information and the viewpoint, and determines the viewpoint of the output image based on the driving information acquired by the driving information acquisition unit and the association .
(Supplementary note 8) In the image processing apparatus according to
Furthermore, an object detection unit that detects the position of an object around the vehicle,
The viewpoint determination unit is an image processing apparatus that determines a viewpoint based on a position of an object detected by the object detection unit when there is no correspondence between the position type recognized by the position type recognition unit and the viewpoint.
(Supplementary note 9) In the image processing apparatus according to
The viewpoint determination unit is an image processing apparatus that determines a viewpoint of the output image so that the position of the object detected by the object detection unit and the position of the vehicle are reflected in the output image.
(Supplementary Note 10) In the image processing apparatus according to
Furthermore, an image processing apparatus that displays an output image generated by the image generation unit.
(Supplementary note 11) In the image processing apparatus according to
The image generation device further includes a viewpoint image representing the viewpoint determined by the viewpoint determination unit in the output image.
(Supplementary Note 12) In the image processing apparatus according to Supplementary Note 11,
The said viewpoint image is an image processing apparatus which is an image of the said vehicle seen from the viewpoint determined by the said viewpoint determination part.
(Supplementary note 13) An image processing method for performing image processing of an image obtained by photographing the periphery of a vehicle,
Acquire images taken by multiple cameras,
Recognizing the vehicle position, which is information about the position of the vehicle,
Recognize the position type, which is the recognized vehicle position type,
Based on the recognized location type, determine the viewpoint,
An image processing method for generating, as an output image, an image viewed from a determined viewpoint based on an acquired captured image.
(Supplementary note 14) In the image processing method according to supplementary note 13,
An image processing method for projecting the photographed image into a predetermined shape to form a projected image, and generating an image obtained by viewing the projected image from the viewpoint as the output image.
(Supplementary note 15) In the image processing method according to supplementary note 13,
An image processing method for acquiring an association between the position type and the viewpoint and determining a viewpoint of the output image based on the recognized position type and the association.
(Supplementary note 16) In the image processing method according to supplementary note 13,
The position type is an image processing method including a registered position.
(Supplementary note 17) In the image processing method according to supplementary note 13,
An image processing method for acquiring map information and recognizing a position type based on the map information and the vehicle position.
(Supplementary note 18) In the image processing method according to supplementary note 13,
Furthermore, driving information that is information related to driving of the vehicle is acquired,
An image processing method for determining a viewpoint based on acquired driving information when there is no correspondence between a position type recognized by the position type recognition unit and a viewpoint.
(Supplementary note 19) In the image processing method according to supplementary note 18,
An image processing method for acquiring association between the driving information and the viewpoint and determining a viewpoint of the output image based on the driving information acquired by the driving information acquisition unit and the association.
(Supplementary note 20) In the image processing method according to supplementary note 13,
Furthermore, the position of the object around the vehicle is detected,
An image processing method for determining a viewpoint based on a detected position of an object when there is no correspondence between the position type recognized by the position type recognition unit and the viewpoint.
1 画像撮影部、2 車両状況検知・認識部、3 画像処理部、4 画像表示部、11 カメラ、1a カメラパラメータテーブル、1b 画像データバッファ、21 位置・進行方向検知部、22 地図情報DB、23 位置種別認識部、24 運転状態検知部、25 接近物体認識部、31 画像生成部、32 画像パラメータDB、321 登録位置DB、322 位置種別DB、333 運転状態DB、324 接近物体数DB、325 画像生成設定DB。
DESCRIPTION OF
Claims (6)
複数のカメラにより撮影された撮影画像を取得する画像取得部と、
前記車両の位置に関する情報である車両位置の認識を行う位置認識部と、
前記位置認識部により認識された車両位置の種別である位置種別を認識する位置種別認識部と、
前記位置種別認識部により認識された位置種別に基づいて、視点を決定する視点決定部と、
前記画像取得部により取得された撮影画像に基づいて、前記視点決定部により決定された視点から見た画像を出力画像として生成する画像生成部と、
を備える画像処理装置。 An image processing apparatus mounted on a vehicle,
An image acquisition unit for acquiring captured images captured by a plurality of cameras;
A position recognition unit for recognizing a vehicle position, which is information relating to the position of the vehicle;
A position type recognition unit for recognizing a position type that is a type of vehicle position recognized by the position recognition unit;
A viewpoint determination unit that determines a viewpoint based on the position type recognized by the position type recognition unit;
An image generation unit that generates, as an output image, an image viewed from the viewpoint determined by the viewpoint determination unit based on the captured image acquired by the image acquisition unit;
An image processing apparatus comprising:
前記画像生成部は、前記撮影画像を所定の形状に投影して投影画像とし、前記視点から該投影画像を見た画像を前記出力画像として生成する画像処理装置。 The image processing apparatus according to claim 1.
The image generation unit is an image processing apparatus that projects the captured image into a predetermined shape to form a projection image, and generates an image obtained by viewing the projection image from the viewpoint as the output image.
前記視点決定部は、前記位置種別と前記視点の対応付けを取得し、前記位置種別認識部により認識された位置種別と該対応付けとに基づいて、前記出力画像の視点を決定する画像処理装置。 The image processing apparatus according to claim 1 or 2,
The viewpoint determination unit acquires an association between the position type and the viewpoint, and determines the viewpoint of the output image based on the position type recognized by the position type recognition unit and the association. .
前記位置種別は、登録された位置を含む画像処理装置。 The image processing apparatus according to any one of claims 1 to 3,
The position type is an image processing apparatus including a registered position.
前記位置種別認識部は、地図情報を取得し、該地図情報と前記車両位置とに基づいて、位置種別を認識する画像処理装置。 The image processing apparatus according to any one of claims 1 to 4,
The position type recognition unit is an image processing apparatus that acquires map information and recognizes a position type based on the map information and the vehicle position.
複数のカメラにより撮影された撮影画像を取得し、
前記車両の位置に関する情報である車両位置の認識を行い、
認識された車両位置の種別である位置種別を認識し、
認識された位置種別に基づいて、視点を決定し、
取得された撮影画像に基づいて、決定された視点から見た画像を出力画像として生成する
ことを行う画像処理方法。 An image processing method for performing image processing of an image obtained by photographing a periphery of a vehicle,
Acquire images taken by multiple cameras,
Recognizing the vehicle position, which is information about the position of the vehicle,
Recognize the position type, which is the recognized vehicle position type,
Based on the recognized location type, determine the viewpoint,
An image processing method for generating, as an output image, an image viewed from a determined viewpoint based on an acquired captured image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008045780A JP5104397B2 (en) | 2008-02-27 | 2008-02-27 | Image processing apparatus and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008045780A JP5104397B2 (en) | 2008-02-27 | 2008-02-27 | Image processing apparatus and image processing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009206702A true JP2009206702A (en) | 2009-09-10 |
JP5104397B2 JP5104397B2 (en) | 2012-12-19 |
Family
ID=41148555
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008045780A Active JP5104397B2 (en) | 2008-02-27 | 2008-02-27 | Image processing apparatus and image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5104397B2 (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011048716A1 (en) * | 2009-10-21 | 2011-04-28 | パナソニック株式会社 | Video image conversion device and image capture device |
JP2011182059A (en) * | 2010-02-26 | 2011-09-15 | Mitsubishi Motors Corp | Vehicle periphery monitoring device |
JP2012253428A (en) * | 2011-05-31 | 2012-12-20 | Fujitsu Ten Ltd | Information processing system, server device, and on-vehicle device |
JP2014199677A (en) * | 2014-07-02 | 2014-10-23 | パナソニック株式会社 | Driving supporting device |
WO2015002031A1 (en) * | 2013-07-03 | 2015-01-08 | クラリオン株式会社 | Video display system, video compositing device, and video compositing method |
JP2017046214A (en) * | 2015-08-27 | 2017-03-02 | 株式会社デンソー | On-vehicle display control device and on-vehicle display control method |
JP2018039295A (en) * | 2016-09-05 | 2018-03-15 | 日産自動車株式会社 | Display method for display apparatus and display apparatus |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7261206B2 (en) | 2020-10-13 | 2023-04-19 | 芝浦機械株式会社 | Processing machine and manufacturing method of workpiece |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3300334B2 (en) * | 1999-04-16 | 2002-07-08 | 松下電器産業株式会社 | Image processing device and monitoring system |
JP2005318519A (en) * | 2004-03-31 | 2005-11-10 | Denso Corp | Imaging apparatus for vehicles |
JP2007210458A (en) * | 2006-02-09 | 2007-08-23 | Nissan Motor Co Ltd | Display device for vehicle and image display control method for vehicle |
-
2008
- 2008-02-27 JP JP2008045780A patent/JP5104397B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3300334B2 (en) * | 1999-04-16 | 2002-07-08 | 松下電器産業株式会社 | Image processing device and monitoring system |
JP2005318519A (en) * | 2004-03-31 | 2005-11-10 | Denso Corp | Imaging apparatus for vehicles |
JP2007210458A (en) * | 2006-02-09 | 2007-08-23 | Nissan Motor Co Ltd | Display device for vehicle and image display control method for vehicle |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011048716A1 (en) * | 2009-10-21 | 2011-04-28 | パナソニック株式会社 | Video image conversion device and image capture device |
JP2011091527A (en) * | 2009-10-21 | 2011-05-06 | Panasonic Corp | Video conversion device and imaging apparatus |
CN102577374A (en) * | 2009-10-21 | 2012-07-11 | 松下电器产业株式会社 | Video image conversion device and image capture device |
JP2011182059A (en) * | 2010-02-26 | 2011-09-15 | Mitsubishi Motors Corp | Vehicle periphery monitoring device |
JP2012253428A (en) * | 2011-05-31 | 2012-12-20 | Fujitsu Ten Ltd | Information processing system, server device, and on-vehicle device |
WO2015002031A1 (en) * | 2013-07-03 | 2015-01-08 | クラリオン株式会社 | Video display system, video compositing device, and video compositing method |
JP2015015527A (en) * | 2013-07-03 | 2015-01-22 | クラリオン株式会社 | Video display system, video synthesis device and video synthesis method |
JP2014199677A (en) * | 2014-07-02 | 2014-10-23 | パナソニック株式会社 | Driving supporting device |
JP2017046214A (en) * | 2015-08-27 | 2017-03-02 | 株式会社デンソー | On-vehicle display control device and on-vehicle display control method |
WO2017034026A1 (en) * | 2015-08-27 | 2017-03-02 | 株式会社デンソー | Display control device and display control method |
JP2018039295A (en) * | 2016-09-05 | 2018-03-15 | 日産自動車株式会社 | Display method for display apparatus and display apparatus |
Also Published As
Publication number | Publication date |
---|---|
JP5104397B2 (en) | 2012-12-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5104397B2 (en) | Image processing apparatus and image processing method | |
US6411898B2 (en) | Navigation device | |
CN111052733B (en) | Surrounding vehicle display method and surrounding vehicle display device | |
JP5062498B2 (en) | Reference data generation system and position positioning system for landscape matching | |
JP4940168B2 (en) | Parking space recognition device | |
JP5922866B2 (en) | System and method for providing guidance information to a vehicle driver | |
JP7052786B2 (en) | Display control device and display control program | |
JP2019011017A (en) | Display system, information presentation system, method for controlling display system, program, and mobile body | |
JP2011529569A (en) | Computer apparatus and method for displaying navigation data in three dimensions | |
US11721213B1 (en) | Displaying sensor data and supplemental data as a mask for autonomous vehicles | |
CN107465890B (en) | Image processing device for vehicle | |
JP4869745B2 (en) | Depression angle calculation device, depression angle calculation method, depression angle calculation program, and image processing apparatus | |
KR20140114373A (en) | Method and device for visualizing the surroundings of a vehicle | |
WO2020021842A1 (en) | Vehicle display control device, vehicle display control method, control program, and persistent tangible computer-readable medium | |
JP2006344009A (en) | Method and system for monitoring periphery of vehicle | |
JP2014119372A (en) | Navigation device and method for guiding travel route at tollhouse | |
CN111034186B (en) | Surrounding vehicle display method and surrounding vehicle display device | |
JP2019036826A (en) | Display method for vehicle and display device for vehicle | |
JP2011134207A (en) | Drive recorder and map generation system | |
JP2012007922A (en) | Road structure measuring method and road surface measuring device | |
KR102174729B1 (en) | Method and system for recognizing lane using landmark | |
JP4948338B2 (en) | Inter-vehicle distance measuring device | |
CN111094898A (en) | Method, device, and computer-readable storage medium having instructions for controlling display of an augmented reality heads-up display device for a motor vehicle | |
JP6185327B2 (en) | Vehicle rear side warning device, vehicle rear side warning method, and other vehicle distance detection device | |
JP2023165721A (en) | display control device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20101018 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120327 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120403 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120604 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120904 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120917 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5104397 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20151012 Year of fee payment: 3 |