JP2009206702A - Image processor and image processing method - Google Patents

Image processor and image processing method Download PDF

Info

Publication number
JP2009206702A
JP2009206702A JP2008045780A JP2008045780A JP2009206702A JP 2009206702 A JP2009206702 A JP 2009206702A JP 2008045780 A JP2008045780 A JP 2008045780A JP 2008045780 A JP2008045780 A JP 2008045780A JP 2009206702 A JP2009206702 A JP 2009206702A
Authority
JP
Japan
Prior art keywords
image
vehicle
viewpoint
image processing
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008045780A
Other languages
Japanese (ja)
Other versions
JP5104397B2 (en
Inventor
Shinya Namatame
慎也 生田目
Seiya Shimizu
誠也 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2008045780A priority Critical patent/JP5104397B2/en
Publication of JP2009206702A publication Critical patent/JP2009206702A/en
Application granted granted Critical
Publication of JP5104397B2 publication Critical patent/JP5104397B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processor for generating an image useful to a user at the position of his own vehicle, and to provide an image processing method. <P>SOLUTION: The image processor mounted on a vehicle is provided with: an image acquiring part for acquiring photographed images photographed by a plurality of cameras; a position recognizing part for recognizing a vehicle position being information about the position of the vehicle; a position classification recognizing part for recognizing a position classification being a classification of the vehicle position recognized by the position recognizing part; a visual point determining part for determining a visual point on the basis of the position classification recognized by the position classification recognizing part; and an image generating part for generating an image seen from the visual point determined by the visual point determining part as an output image on the basis of the photographed image acquired by the image acquiring part. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、車両周辺が撮影された画像の画像処理を行う画像処理装置、画像処理方法に関するものである。   The present invention relates to an image processing apparatus and an image processing method for performing image processing on an image obtained by photographing the periphery of a vehicle.

従来、運転者の視点を補うために、車両の操作に応じて車載カメラからの画像を表示する技術が存在する。例えば、車両の走行状態、走行速度、ハンドルの操舵角、物体検出センサよる検出結果の状況に応じて、運転者に表示する画像を変更し、車両運転の際の安全確認支援を行う画像処理装置がある(例えば、特許文献1参照)。また、車両に搭載されたカメラから移動体を検出する方法がある(例えば、特許文献2参照)。
特許第3300334号公報 特開平6−333049号公報
Conventionally, in order to supplement the driver's viewpoint, there is a technique for displaying an image from a vehicle-mounted camera according to the operation of the vehicle. For example, an image processing device that changes the image displayed to the driver according to the vehicle running state, the running speed, the steering angle of the steering wheel, the detection result of the object detection sensor, and provides safety confirmation support when driving the vehicle (For example, refer to Patent Document 1). There is also a method for detecting a moving object from a camera mounted on a vehicle (see, for example, Patent Document 2).
Japanese Patent No. 3300334 JP-A-6-333049

しかしながら、車両操作や走行状態、物体検出センサによる情報を用いても、運転者に有用な画像を提供できない場合がある。例えば、信号の無い狭いT字路で右左折をするために徐行する場合の運転者に有用な情報と、駐車場で徐行する場合の運転者に有用な情報とは、異なる。前者は自車前方の左右が見える画像であり、後者は自車を真上から俯瞰する画像である。しかし、車両操作の情報などからでは両者を区別することはできない。つまり、車両の走行状態、走行速度、ハンドル操舵角、物体検出結果を用いても、運転者に適切な画像を生成できない場合がある。   However, there are cases where a useful image cannot be provided to the driver even if the vehicle operation, the running state, or information from the object detection sensor is used. For example, information useful to the driver when driving slowly to make a right or left turn on a narrow T-junction without a signal is different from information useful to the driver when driving slowly in a parking lot. The former is an image in which the left and right in front of the own vehicle can be seen, and the latter is an image in which the own vehicle is viewed from directly above. However, the two cannot be distinguished from the vehicle operation information. In other words, there may be a case where an image appropriate for the driver cannot be generated even using the vehicle traveling state, traveling speed, steering angle, and object detection result.

本発明は上述した問題点を解決するためになされたものであり、自車位置においてユーザに有用な画像を生成する画像処理装置、画像処理方法を提供することを目的とする。   SUMMARY An advantage of some aspects of the invention is that it provides an image processing apparatus and an image processing method for generating an image useful for a user at a vehicle position.

上述した課題を解決するため、本発明の一態様は、車両に搭載される画像処理装置であって、複数のカメラにより撮影された撮影画像を取得する画像取得部と、前記車両の位置に関する情報である車両位置の認識を行う位置認識部と、前記位置認識部により認識された車両位置の種別である位置種別を認識する位置種別認識部と、前記位置種別認識部により認識された位置種別に基づいて、視点を決定する視点決定部と、前記画像取得部により取得された撮影画像に基づいて、前記視点決定部により決定された視点から見た画像を出力画像として生成する画像生成部とを備える。このような画像処理装置によれば、自車位置においてユーザに有用な画像を生成することができる。   In order to solve the above-described problem, an aspect of the present invention is an image processing device mounted on a vehicle, an image acquisition unit that acquires captured images captured by a plurality of cameras, and information on the position of the vehicle A position recognition unit that recognizes a vehicle position, a position type recognition unit that recognizes a position type that is a type of vehicle position recognized by the position recognition unit, and a position type recognized by the position type recognition unit. A viewpoint determination unit that determines a viewpoint, and an image generation unit that generates, as an output image, an image viewed from the viewpoint determined by the viewpoint determination unit based on the captured image acquired by the image acquisition unit. Prepare. According to such an image processing device, an image useful for the user can be generated at the vehicle position.

また、本発明に係る画像処理装置において、前記画像生成部は、前記撮影画像を所定の形状に投影して投影画像とし、前記視点から該投影画像を見た画像を前記出力画像として生成しても良い。このような画像処理装置によれば、複数の撮影画像に基づいて任意の視点からの出力画像を生成することができる。   Further, in the image processing device according to the present invention, the image generation unit projects the captured image onto a predetermined shape as a projection image, and generates an image obtained by viewing the projection image from the viewpoint as the output image. Also good. According to such an image processing device, an output image from an arbitrary viewpoint can be generated based on a plurality of captured images.

また、本発明に係る画像処理装置において、前記視点決定部は、前記位置種別と前記視点の対応付けを取得し、前記位置種別認識部により認識された位置種別と該対応付けとに基づいて、前記出力画像の視点を決定しても良い。このような画像処理装置によれば、位置種別に適した視点を選択することができる。   In the image processing device according to the present invention, the viewpoint determination unit acquires the association between the position type and the viewpoint, and based on the position type recognized by the position type recognition unit and the association, The viewpoint of the output image may be determined. According to such an image processing apparatus, a viewpoint suitable for the position type can be selected.

また、本発明に係る画像処理装置において、前記位置種別は、登録された位置を含んでも良い。このような画像処理装置によれば、位置種別を登録することができる。   In the image processing apparatus according to the present invention, the position type may include a registered position. According to such an image processing apparatus, the position type can be registered.

また、本発明に係る画像処理装置において、前記位置種別認識部は、地図情報を取得し、該地図情報と前記車両位置とに基づいて、位置種別を認識しても良い。このような画像処理装置によれば、自車位置から位置種別を認識することができる。   In the image processing device according to the present invention, the position type recognition unit may acquire map information and recognize the position type based on the map information and the vehicle position. According to such an image processing apparatus, the position type can be recognized from the own vehicle position.

また、本発明の一態様は、車両周辺が撮影された画像の画像処理を行う画像処理方法であって、複数のカメラにより撮影された撮影画像を取得し、前記車両の位置に関する情報である車両位置の認識を行い、認識された車両位置の種別である位置種別を認識し、認識された位置種別に基づいて、視点を決定し、取得された撮影画像に基づいて、決定された視点から見た画像を出力画像として生成することを行う。このような画像処理方法によれば、自車位置においてユーザに有用な画像を生成することができる   Another embodiment of the present invention is an image processing method for performing image processing of an image obtained by photographing the periphery of a vehicle, and is a vehicle that obtains captured images captured by a plurality of cameras and is information regarding the position of the vehicle. Recognize the position, recognize the position type that is the recognized vehicle position type, determine the viewpoint based on the recognized position type, and view from the determined viewpoint based on the acquired captured image. The generated image is generated as an output image. According to such an image processing method, an image useful for the user can be generated at the vehicle position.

また、本発明の構成要素、または構成要素の任意の組合せを、方法、装置、システム、記録媒体、データ構造などに適用したものも本発明に含む。   Moreover, what applied the component of this invention, or arbitrary combinations of a component to a method, an apparatus, a system, a recording medium, a data structure, etc. is also contained in this invention.

開示の画像処理装置、画像処理方法によれば、自車位置においてユーザに有用な画像を生成することができる。   According to the disclosed image processing apparatus and image processing method, it is possible to generate an image useful to the user at the vehicle position.

以下、本発明の実施の形態について図面を参照しつつ説明する。   Embodiments of the present invention will be described below with reference to the drawings.

まず、本実施の形態に係る車両用画像処理装置の構成について説明する。   First, the configuration of the vehicle image processing apparatus according to the present embodiment will be described.

図1は、本実施の形態に係る車両用画像処理装置の構成の一例を示すブロック図である。この車両用画像処理装置は、画像撮影部1、車両状況検知・認識部2、画像処理部3、画像表示部4を備える。   FIG. 1 is a block diagram showing an example of the configuration of the vehicle image processing apparatus according to the present embodiment. The vehicle image processing apparatus includes an image photographing unit 1, a vehicle state detection / recognition unit 2, an image processing unit 3, and an image display unit 4.

画像撮影部1は、車両に取り付けられたN個のカメラ11と、予め各カメラ11の位置情報(カメラパラメータ)を格納するカメラパラメータテーブル1a、各カメラ11により撮影された画像(撮影画像)を一時的に記憶する画像データバッファ1b(画像取得部)を備える。本実施の形態では、カメラ11の数Nを4とする。   The image capturing unit 1 includes N cameras 11 attached to the vehicle, a camera parameter table 1a that stores position information (camera parameters) of each camera 11 in advance, and images (captured images) captured by the cameras 11. An image data buffer 1b (image acquisition unit) for temporary storage is provided. In the present embodiment, the number N of cameras 11 is four.

図2は、本実施の形態に係るカメラパラメータテーブルの一例を示す表である。カメラパラメータテーブル1aは、各カメラ11について、カメラ番号、自車座標系における位置座標(X,Y,Z)、方位角、仰角、光軸周り角、画角の情報が格納されている。各値の定義は、例えば特許文献1に記載の定義を用いる。   FIG. 2 is a table showing an example of the camera parameter table according to the present embodiment. The camera parameter table 1a stores information about the camera number, position coordinates (X, Y, Z) in the host vehicle coordinate system, azimuth angle, elevation angle, angle around the optical axis, and angle of view for each camera 11. The definition of each value uses the definition of patent document 1, for example.

図3は、本実施の形態に係るカメラの配置の一例について車両左方から見た配置図である。図4は、本実施の形態に係るカメラの配置の一例について車両上方から見た配置図である。図5は、本実施の形態に係るカメラの配置の一例について車両前方から見た配置図である。4個のカメラ11は、それぞれカメラ番号1,2,3,4が付与され、それぞれ車両前方、車両右方、車両後方、車両左方を撮影する。   FIG. 3 is a layout view of an example of the camera layout according to the present embodiment as viewed from the left side of the vehicle. FIG. 4 is a layout view of an example of the camera layout according to the present embodiment as viewed from above the vehicle. FIG. 5 is a layout view of an example of the camera layout according to the present embodiment as viewed from the front of the vehicle. The four cameras 11 are assigned camera numbers 1, 2, 3, and 4, respectively, and respectively photograph the vehicle front, the vehicle right side, the vehicle rear, and the vehicle left side.

図6は、本実施の形態に係る撮影画像の一例を示す図である。この図において、左上の画像は、後方カメラによる撮影画像である。同様に、右上の画像は、前方カメラによる撮影画像である。同様に、左下の画像は、右方カメラによる撮影画像である。同様に、右下の画像は、左方カメラによる撮影画像である。   FIG. 6 is a diagram illustrating an example of a captured image according to the present embodiment. In this figure, the upper left image is an image taken by the rear camera. Similarly, the upper right image is an image taken by the front camera. Similarly, the lower left image is an image taken by the right camera. Similarly, the lower right image is an image taken by the left camera.

図7は、本実施の形態に係る画像処理部により生成された出力画像の一例を示す図である。この出力画像は、撮影画像を画像処理した結果と、予め設定された自車の形状とが表示される。   FIG. 7 is a diagram illustrating an example of an output image generated by the image processing unit according to the present embodiment. This output image displays the result of image processing of the captured image and a preset shape of the vehicle.

本実施の形態では、自車座標系を用いる。図8は、本実施の形態に係る自車座標系の一例を示す図である。自車座標系は、自車の任意の一点を原点Oとした3次元の直交座標系である。本実施の形態では、走行方向をX軸、地面と平行で走行方向に対して右方向に直交する軸をY軸、XY平面と直交する上方向をZ軸とする。また、原点は4つのカメラ11の座標の重心とする。上述したカメラパラメータテーブル1aには、カメラ11設置時に自車座標系で計測された位置座標X、Y、Zと方位角、仰角、光軸周り角の情報が格納されている。   In the present embodiment, the host vehicle coordinate system is used. FIG. 8 is a diagram illustrating an example of the host vehicle coordinate system according to the present embodiment. The own vehicle coordinate system is a three-dimensional orthogonal coordinate system in which an arbitrary point of the own vehicle is an origin O. In the present embodiment, the traveling direction is the X axis, the axis parallel to the ground and orthogonal to the right direction with respect to the traveling direction is the Y axis, and the upward direction orthogonal to the XY plane is the Z axis. The origin is the center of gravity of the coordinates of the four cameras 11. The camera parameter table 1a described above stores information on the position coordinates X, Y, and Z, the azimuth angle, the elevation angle, and the optical axis angle measured in the vehicle coordinate system when the camera 11 is installed.

画像データバッファ1bには、各カメラ11により撮影された画像が一時的に蓄積される。本実施の形態において、後述の車両状況検知・認識部2の接近物体認識部25が自車への接近物体を検知するために、画像データバッファ10は各カメラ11の画像を時間軸方向に2標本以上蓄積する。たとえばカメラ11が1フレーム(画像)の撮像に33ミリ秒かかるとすると、画像データバッファ10は現時点で取得したフレームと33ミリ秒前に取得したフレームとを保持する。カメラが4台あるので、画像データバッファ1bは、常に8枚の画像を蓄積する。   Images taken by the cameras 11 are temporarily stored in the image data buffer 1b. In the present embodiment, in order for the approaching object recognition unit 25 of the vehicle condition detection / recognition unit 2 to be described later to detect an approaching object to the host vehicle, the image data buffer 10 displays the image of each camera 11 in the time axis direction. Accumulate more than the specimen. For example, if the camera 11 takes 33 milliseconds to capture one frame (image), the image data buffer 10 holds the frame acquired at the present time and the frame acquired 33 milliseconds ago. Since there are four cameras, the image data buffer 1b always stores eight images.

車両状況検知・認識部2は、位置・進行方向検知部21(位置認識部)、地図情報DB(database)22、位置種別認識部23、運転状態検知部24(運転情報取得部)、接近物体認識部25(物体検知部)を備える。   The vehicle state detection / recognition unit 2 includes a position / traveling direction detection unit 21 (position recognition unit), a map information DB (database) 22, a position type recognition unit 23, a driving state detection unit 24 (driving information acquisition unit), and an approaching object. A recognition unit 25 (object detection unit) is provided.

位置・進行方向検知部21は、自車位置情報(緯度、経度、進行方向)(車両位置)を取得する。ここで、位置・進行方向検知部21は、位置種別認識部23または画像処理部3から要求があった場合、自車位置情報を要求元に返す。位置・進行方向検知部21は、GPS(Global Positioning Systems)位置計測装置と電子コンパス装置などを用いて実装される。   The position / traveling direction detection unit 21 acquires own vehicle position information (latitude, longitude, traveling direction) (vehicle position). Here, when there is a request from the position type recognition unit 23 or the image processing unit 3, the position / traveling direction detection unit 21 returns the vehicle position information to the request source. The position / traveling direction detection unit 21 is mounted using a GPS (Global Positioning Systems) position measuring device and an electronic compass device.

地図情報DB22は、カーナビゲーションシステムなどのデータベースを用いる。地図情報DB22は、ハードディスクを用いて実装される。図9は、本実施の形態に係る地図情報DBの一例を示す表である。ノード(地点)毎に、緯度、経度、リンク数(そのノードに接続された道路の数)、接続ノード番号(そのノードに道路を介して接続された他のノードの数)、位置種別が格納されている。   The map information DB 22 uses a database such as a car navigation system. The map information DB 22 is mounted using a hard disk. FIG. 9 is a table showing an example of the map information DB according to the present embodiment. For each node (point), the latitude, longitude, number of links (number of roads connected to that node), connection node number (number of other nodes connected to that node via roads), and location type are stored. Has been.

位置種別認識部23は、車両の現在位置の種別である位置種別を認識する。本実施の形態では位置種別を「交差点(T字路以外、十字路等)」「駐車場」「T字路」「その他(前記4種類以外)」とする。位置種別認識部23は、地図情報DB22を参照し、位置・進行方向検知部21から得られた緯度及び経度に対応する位置種別を取得する。認識結果は、画像処理部3に送られる。なお、本実施の形態では位置種別を4種類としたが、道路幅(走行車線の幅)などを組み合わせることにより、位置種別の種類を増やしてもよい。   The position type recognition unit 23 recognizes a position type that is the type of the current position of the vehicle. In the present embodiment, the position type is “intersection (other than T-shaped intersection, crossroad, etc.)” “parking lot” “T-shaped intersection” “other (other than the above four types)”. The position type recognition unit 23 refers to the map information DB 22 and acquires a position type corresponding to the latitude and longitude obtained from the position / traveling direction detection unit 21. The recognition result is sent to the image processing unit 3. In this embodiment, four types of positions are used, but the number of types of positions may be increased by combining road widths (widths of driving lanes) and the like.

運転状態検知部24は、車両操作状態と運転状態対応テーブルから運転状態を検知し、検知結果を画像処理部3へ送る。本実施の形態において、車両操作状態は、「ハンドルの舵角」「方向指示器」「走行速度」「セレクトレバーのレンジ」の4種類である。また、本実施の形態において、運転状態は「直進」「左折」「右折」「左車線変更」「右車線変更」「徐行」「後退」「その他」の8種類の値を取る。   The driving state detection unit 24 detects the driving state from the vehicle operation state and the driving state correspondence table, and sends the detection result to the image processing unit 3. In the present embodiment, there are four types of vehicle operation states: “steering angle of steering wheel”, “direction indicator”, “traveling speed”, and “select lever range”. Further, in the present embodiment, the driving state takes eight types of values: “straight ahead”, “left turn”, “right turn”, “left lane change”, “right lane change”, “slow travel”, “reverse”, and “others”.

図10は、本実施の形態に係る運転状態対応テーブルの一例を示す表である。図中の「−−−」は条件が無いことを意味する。例えば、図中の7段目の操作状態は、「セレクトレバーのレンジ」が「R」である場合、「ハンドルの舵角」や「方向指示器」などの3種類の状態に関わらず「後退」とする。本実施の形態において、車両操作状態は、4項目であるが、他に項目を追加してもよい。たとえば「アクセルペダルの踏み込み量」や「ブレーキペダルの踏み込み量」などがある。運転状態についても「左折」「右折」の代わりに、「左折中」「左折待ち停止中」「右折中」「右折待ち停止中」などとしてもよい。   FIG. 10 is a table showing an example of the operation state correspondence table according to the present embodiment. “---” in the figure means that there is no condition. For example, when the “select lever range” is “R”, the operation state of the seventh stage in the figure is “reverse” regardless of three types of states such as “steering angle of steering wheel” and “direction indicator”. " In the present embodiment, the vehicle operation state has four items, but other items may be added. For example, there are “depressed amount of accelerator pedal” and “depressed amount of brake pedal”. Regarding the driving state, instead of “left turn” and “right turn”, “turning left”, “waiting left turn”, “turning right”, “waiting right turn”, etc. may be used.

接近物体認識部25は、自車周辺の物体の有無を調べる。画像データバッファ1bに蓄積された画像を画像処理部3経由で取得し、蓄積された8枚の画像から自車に接近している物体の有無を検知する。接近物体が存在する場合、各物体の自車座標系における位置(X,Y,Z)も検知する。移動物体の有無の検出方法は、たとえば特許文献2に記載された方法を用いる。   The approaching object recognition unit 25 checks for the presence of an object around the host vehicle. The image accumulated in the image data buffer 1b is acquired via the image processing unit 3, and the presence or absence of an object approaching the host vehicle is detected from the accumulated eight images. When an approaching object exists, the position (X, Y, Z) of each object in the vehicle coordinate system is also detected. As a method for detecting the presence or absence of a moving object, for example, the method described in Patent Document 2 is used.

画像生成部3は、画像生成部31(視点決定部及び画像生成部)、画像パラメータDB32を備える。   The image generation unit 3 includes an image generation unit 31 (viewpoint determination unit and image generation unit) and an image parameter DB 32.

画像生成部31は、撮影画像を投影形状に投影して投影画像を生成し、各部から得た情報に基づいて仮想視点を決定し、投影画像を仮想視点から見た画像を出力画像として生成する。本実施の形態において、画像生成部31は、画像撮影部1から、各カメラ11で撮像した画像と、各カメラ11の位置や角度などの情報を得る。また、画像生成部31は、車両状況検知・認識部2から、緯度、経度、進行情報、車両の運転状態、自車への接近物体の数と各物体位置座標を得る。また、画像生成部31は、画像パラメータDB32から画像生成に必要な画像パラメータを得る。   The image generation unit 31 projects a captured image onto a projection shape to generate a projection image, determines a virtual viewpoint based on information obtained from each unit, and generates an image obtained by viewing the projection image from the virtual viewpoint as an output image. . In the present embodiment, the image generation unit 31 obtains the image captured by each camera 11 and information such as the position and angle of each camera 11 from the image capturing unit 1. Further, the image generation unit 31 obtains the latitude, longitude, travel information, the driving state of the vehicle, the number of approaching objects to the host vehicle, and each object position coordinate from the vehicle state detection / recognition unit 2. The image generation unit 31 obtains image parameters necessary for image generation from the image parameter DB 32.

画像パラメータDB32は画像生成に必要なパラメータなどが予め定められているデータベースである。図11は、本実施の形態に係る画像パラメータDBの一例を示す表である。本実施の形態における画像パラメータDB32は、登録位置DB321、位置種別DB322、運転状態DB333、接近物体数DB324、画像生成設定DB325を備える。   The image parameter DB 32 is a database in which parameters necessary for image generation are determined in advance. FIG. 11 is a table showing an example of the image parameter DB according to the present embodiment. The image parameter DB 32 in the present embodiment includes a registered position DB 321, a position type DB 322, a driving state DB 333, an approaching object number DB 324, and an image generation setting DB 325.

図12は、本実施の形態に係る登録位置DBの一例を示す表である。登録位置DB321は、ユーザにより登録された位置である登録位置(登録名、緯度、経度)と、その位置で表示させる出力画像の生成に用いる設定(画像生成設定)とが定義されている。例えば、自宅駐車場として登録された緯度・経度を中心として半径20メートル以内に自車が存在する場合、画像生成部31は、画像生成設定PDを用いて、自車を俯瞰する出力画像を生成する。画像生成設定PDについては後述する画像生成設定DB325における出力画像の設定を表している。   FIG. 12 is a table showing an example of the registration position DB according to the present embodiment. The registered position DB 321 defines a registered position (registered name, latitude, longitude) that is a position registered by the user, and settings (image generation settings) used to generate an output image to be displayed at the position. For example, when the host vehicle exists within a radius of 20 meters centering on the latitude and longitude registered as the home parking lot, the image generation unit 31 generates an output image overlooking the host vehicle using the image generation setting PD. To do. The image generation setting PD represents an output image setting in an image generation setting DB 325 described later.

図13は、本実施の形態に係る位置種別DBの一例を示す表である。位置種別DB322は、位置種別と、その位置種別に対して用いる画像生成設定とが定義されている。なお、本実施の形態において、位置種別が「交差点」である場合の画像生成設定は定義されない。画像生成設定が定義されていない位置種別では、後述するように車両の運転状態等により画像生成設定を決定する。   FIG. 13 is a table showing an example of the position type DB according to the present embodiment. The position type DB 322 defines a position type and an image generation setting used for the position type. In the present embodiment, the image generation setting when the position type is “intersection” is not defined. In a position type for which no image generation setting is defined, the image generation setting is determined according to the driving state of the vehicle and the like as will be described later.

図14は、本実施の形態に係る運転状態DBの一例を示す表である。運転状態DB323は、運転状態と、その運転状態に対して用いる画像生成設定とが定義されている。なお、本実施の形態において、運転状態が「直進」の場合の画像生成設定は定義されない。画像生成設定が定義されていない運転状態では、後述するように接近物体数等により画像生成設定を決定する。   FIG. 14 is a table showing an example of the operation state DB according to the present embodiment. The operation state DB 323 defines an operation state and an image generation setting used for the operation state. In the present embodiment, the image generation setting when the driving state is “straight ahead” is not defined. In the driving state where the image generation setting is not defined, the image generation setting is determined based on the number of approaching objects and the like as will be described later.

図15は、本実施の形態に係る接近物体数DBの一例を示す表である。接近物体数DB324は、接近物体数と、その接近物体数に対して用いる画像生成設定とが定義されている。なお、本実施の形態において、接近物体数が0である場合の画像生成設定は定義されない。   FIG. 15 is a table showing an example of the approaching object number DB according to the present embodiment. The approaching object number DB 324 defines the approaching object number and the image generation setting used for the approaching object number. In the present embodiment, the image generation setting when the number of approaching objects is 0 is not defined.

図16は、本実施の形態に係る画像生成設定DBの一例を示す表である。画像生成設定DB325は、生成する出力画像に必要なパラメータとして、投影形状を決定するための投影形状パラメータ、仮想視点を決定するための仮想視点パラメータを格納する。本実施の形態では、投影形状を球面とする。図17は、本実施の形態に係る投影形状の一例を示す式である。投影形状パラメータは、この式における球の半径Rとする。X,Y,Zは、自車座標系である。   FIG. 16 is a table showing an example of the image generation setting DB according to the present embodiment. The image generation setting DB 325 stores a projection shape parameter for determining a projection shape and a virtual viewpoint parameter for determining a virtual viewpoint as parameters necessary for the output image to be generated. In the present embodiment, the projection shape is a spherical surface. FIG. 17 is an expression showing an example of a projected shape according to the present embodiment. The projection shape parameter is the radius R of the sphere in this equation. X, Y, and Z are the host vehicle coordinate systems.

本実施の形態においては、画像生成設定DB325における画像生成設定として、画像生成設定PA,PB,PC,PD,PE,PFが定義される。画像生成設定PA,PB,PC,PDは、予め仮想視点パラメータが設定される。   In the present embodiment, image generation settings PA, PB, PC, PD, PE, and PF are defined as image generation settings in the image generation setting DB 325. Virtual viewpoint parameters are set in advance for the image generation settings PA, PB, PC, and PD.

画像生成設定PAは、自車の左後方が見通せる出力画像を生成する設定である。画像生成設定PBは、自車の右後方が見通せる出力画像を生成する設定である。画像生成設定PCは、自車の後方が見通せる出力画像を生成する設定である。画像生成設定PDは、自車を俯瞰する出力画像を生成する設定である。画像生成設定PEは、接近物体が映る出力画像を生成する設定であり、予め設定された仮想視点パラメータに基づいて、出力画像に接近物体が映るような仮想視点パラメータが決定される。画像生成設定PFは、自車前方の左右が見渡せる出力画像を生成する設定であり、前方カメラの撮影画像をそのまま出力画像とする。   The image generation setting PA is a setting for generating an output image through which the left rear of the host vehicle can be seen. The image generation setting PB is a setting for generating an output image through which the right rear of the host vehicle can be seen. The image generation setting PC is a setting for generating an output image through which the back of the vehicle can be seen. The image generation setting PD is a setting for generating an output image overlooking the host vehicle. The image generation setting PE is a setting for generating an output image in which an approaching object is reflected, and a virtual viewpoint parameter that allows an approaching object to be reflected in the output image is determined based on a preset virtual viewpoint parameter. The image generation setting PF is a setting for generating an output image in which the left and right in front of the host vehicle can be seen, and an image captured by the front camera is used as an output image as it is.

画像生成部31は、各カメラ11により撮影された撮影画像を投影形状へ投影して投影画像を生成する。図18は、本実施の形態に係る投影画像の一例を示す図である。投影画像は、カメラパラメータテーブル1aのカメラパラメータと各カメラ11により得られた撮影画像とを用いて生成される。ここで、自車は、投影形状の下部に配置される。   The image generation unit 31 generates a projection image by projecting a captured image captured by each camera 11 onto a projection shape. FIG. 18 is a diagram showing an example of a projected image according to the present embodiment. The projection image is generated using the camera parameters in the camera parameter table 1a and the captured images obtained by the cameras 11. Here, the own vehicle is arranged below the projected shape.

更に、画像生成部31は、仮想視点パラメータの値を用いて投影画像を2次元平面に投影して出力画像を得る。複数のカメラにより得られた撮影画像をカメラの位置・方角などに基づいて立体形状に投影する方法、投影した結果を用いて仮想視点から画像を生成する方法は、例えば特許文献1に記載の方法を用いる。   Further, the image generation unit 31 projects the projection image on a two-dimensional plane using the value of the virtual viewpoint parameter to obtain an output image. A method for projecting captured images obtained by a plurality of cameras into a three-dimensional shape based on camera positions and directions, and a method for generating an image from a virtual viewpoint using the projection results are described in, for example, Patent Document 1 Is used.

画像表示部4は、画像処理部3により生成された出力画像を表示する。   The image display unit 4 displays the output image generated by the image processing unit 3.

次に、画像生成設定PEの仮想視点の決定方法について説明する。   Next, a method for determining the virtual viewpoint of the image generation setting PE will be described.

接近物体検知部25は、画像データバッファ1bに格納された撮影画像を用いて接近物体の検出を行う。本実施の形態において、接近物体の検出は、左方、右方、後方カメラの撮影画像のみを用い、前方カメラの撮影画像を用いない。また、接近物体が検出された場合において運転者に有用な仮想視点として、予め仮想視点a,b,c,d,eが設定される。仮想視点を決定する仮想視点パラメータとして、投影画像に対する仮想視点の座標と方向が設定される。   The approaching object detection unit 25 detects an approaching object using the captured image stored in the image data buffer 1b. In the present embodiment, the detection of the approaching object uses only the captured images of the left, right, and rear cameras, and does not use the captured images of the front camera. In addition, virtual viewpoints a, b, c, d, and e are set in advance as virtual viewpoints useful to the driver when an approaching object is detected. As virtual viewpoint parameters for determining the virtual viewpoint, the coordinates and direction of the virtual viewpoint with respect to the projection image are set.

図19は、本実施の形態に係る仮想視点aの一例を示す図である。図20は、本実施の形態に係る仮想視点bの一例を示す図である。図21は、本実施の形態に係る仮想視点cの一例を示す図である。図22は、本実施の形態に係る仮想視点dの一例を示す図である。図23は、本実施の形態に係る仮想視点eの一例を示す図である。仮想視点aは、自車の右方から自車の左後方を見る視点である。仮想視点bは、自車の左方から自車の右後方を見る視点である。仮想視点cは、自車の右方から自車の後方を見る視点である。仮想視点dは、自車の左方から自車の後方を見る視点である。仮想視点eは、自車の前方から自車の後方を見る視点であり、左方、右方、後方カメラの撮影画像がほぼ全て映る仮想視点である。   FIG. 19 is a diagram illustrating an example of the virtual viewpoint a according to the present embodiment. FIG. 20 is a diagram illustrating an example of the virtual viewpoint b according to the present embodiment. FIG. 21 is a diagram illustrating an example of the virtual viewpoint c according to the present embodiment. FIG. 22 is a diagram illustrating an example of the virtual viewpoint d according to the present embodiment. FIG. 23 is a diagram illustrating an example of the virtual viewpoint e according to the present embodiment. The virtual viewpoint a is a viewpoint in which the left rear side of the own vehicle is viewed from the right side of the own vehicle. The virtual viewpoint b is a viewpoint for viewing the right rear side of the own vehicle from the left side of the own vehicle. The virtual viewpoint c is a viewpoint in which the rear side of the own vehicle is viewed from the right side of the own vehicle. The virtual viewpoint d is a viewpoint in which the rear side of the own vehicle is viewed from the left side of the own vehicle. The virtual viewpoint e is a viewpoint in which the rear of the host vehicle is viewed from the front of the host vehicle, and is a virtual viewpoint in which almost all captured images of the left, right, and rear cameras are shown.

接近物体が検出されると、画像生成部31は、仮想視点a,b,c,dのそれぞれを用いた出力画像において、接近物体の外接四角形の中心点Aの座標(X_A,Y_A)、自車座標系の原点B(X_B,Y_B)の座標、点Aと点Bの中点C(X_C,Y_C)の座標を求める。   When the approaching object is detected, the image generation unit 31 detects the coordinates (X_A, Y_A) of the center point A of the circumscribed rectangle of the approaching object in the output image using each of the virtual viewpoints a, b, c, and d. The coordinates of the origin B (X_B, Y_B) of the vehicle coordinate system and the coordinates of the midpoint C (X_C, Y_C) of the point A and the point B are obtained.

図24は、本実施の形態に係る接近物体が1個の場合の仮想視点bの出力画像の一例を示す図である。ここで、出力画像の左下を原点O’、横軸をX’軸、縦軸をY’軸とする。また、接近物体の外接四角形の各頂点の座標のうち、左端のX’座標をX_left、上端のY’座標をY_top、右端のX’座標をX_right、下端のY’座標をY_bottomとする。また、また、出力画像の中心点をDとする。図25は、本実施の形態に係る接近物体の外接四角形の位置の条件を示す式である。ここでW,Hは、それぞれ出力画像の幅と高さである。画像生成部31は、X_left、Y_top、X_right、Y_bottomがこの条件を満たす仮想視点を使用し、この条件を満たさない仮想視点を使用しない。   FIG. 24 is a diagram illustrating an example of an output image of the virtual viewpoint b when there is one approaching object according to the present embodiment. Here, the lower left of the output image is the origin O ′, the horizontal axis is the X ′ axis, and the vertical axis is the Y ′ axis. Further, among the coordinates of the vertices of the circumscribed rectangle of the approaching object, the X ′ coordinate at the left end is X_left, the Y ′ coordinate at the upper end is Y_top, the X ′ coordinate at the right end is X_right, and the Y ′ coordinate at the lower end is Y_bottom. Also, let D be the center point of the output image. FIG. 25 is an expression showing the condition of the position of the circumscribed rectangle of the approaching object according to the present embodiment. Here, W and H are the width and height of the output image, respectively. The image generation unit 31 uses a virtual viewpoint in which X_left, Y_top, X_right, and Y_bottom satisfy this condition, and does not use a virtual viewpoint that does not satisfy this condition.

更に、画像生成部31は、接近物体の外接四角形の位置の条件を満たす仮想視点のうち、線分CDの距離が最小になる仮想視点を選択する。また、仮想視点a,b,c,dの全てが接近物体の外接四角形の位置の条件を満たさない場合、画像生成部31は、仮想視点eを使用する。   Further, the image generation unit 31 selects a virtual viewpoint that minimizes the distance of the line segment CD from among the virtual viewpoints that satisfy the condition of the position of the circumscribed rectangle of the approaching object. Further, when all of the virtual viewpoints a, b, c, and d do not satisfy the condition of the position of the circumscribed rectangle of the approaching object, the image generation unit 31 uses the virtual viewpoint e.

なお、画像生成部31は、線分CD間の距離を求める上で、仮想視点パラメータを初期値の近傍で変化させても良い。たとえば、仮想視点のX座標が10に設定されている場合、画像生成部31は、X座標を5や15などに変化させた場合の線分CD間の距離をそれぞれ求め、その距離が最小となる仮想視点パラメータを選択する。また、画像生成部31は、同様にしてX座標以外の仮想視点パラメータを変化させても良い。変化させる仮想視点パラメータの組み合わせの数は、画像生成部31の処理性能に合わせて変更しても良い。   Note that the image generation unit 31 may change the virtual viewpoint parameter in the vicinity of the initial value in obtaining the distance between the line segments CD. For example, when the X coordinate of the virtual viewpoint is set to 10, the image generation unit 31 obtains the distance between the line segments CD when the X coordinate is changed to 5 or 15 and the distance is the minimum. The virtual viewpoint parameter to be selected is selected. Similarly, the image generation unit 31 may change virtual viewpoint parameters other than the X coordinate. The number of virtual viewpoint parameter combinations to be changed may be changed according to the processing performance of the image generation unit 31.

次に、接近物体が2個以上の場合について説明する。各接近物体の外接四角形の中心をA1,A2,….とし、これらの点の重心を点A’とする。また、点A’と自車座標系の原点Bとの中点をC、画像座標系の中心をDとする。このとき、画像生成部31は、接近物体の外接四角形の位置の条件を満たす仮想視点のうち、線分CDの距離を最小にする仮想視点を選択する。   Next, a case where there are two or more approaching objects will be described. The center of the circumscribed rectangle of each approaching object is A1, A2,. And the center of gravity of these points is point A ′. Also, let C be the midpoint between the point A 'and the origin B of the host vehicle coordinate system, and D be the center of the image coordinate system. At this time, the image generation unit 31 selects a virtual viewpoint that minimizes the distance of the line segment CD among the virtual viewpoints that satisfy the condition of the position of the circumscribed rectangle of the approaching object.

図26は、本実施の形態に係る接近物体が2個の場合の仮想視点bの出力画像の一例を示す図である。この場合、A1とA2を結ぶ線の重心(中点)がA’となる。   FIG. 26 is a diagram illustrating an example of an output image of the virtual viewpoint b when there are two approaching objects according to the present embodiment. In this case, the center of gravity (middle point) of the line connecting A1 and A2 is A '.

また、接近物体の外接四角形の位置の条件を満たし、且つ検知された複数の接近物体が同時に出力画像に映るような仮想視点が存在しない場合、画像生成部31は、自車に近い接近物体や自車への接近速度が大きい接近物体のみを優先して出力画像に表示させる仮想視点を選択する。   In addition, when there is no virtual viewpoint that satisfies the condition of the position of the circumscribed rectangle of the approaching object and a plurality of detected approaching objects appear in the output image at the same time, the image generation unit 31 A virtual viewpoint to be displayed in the output image with priority given only to an approaching object having a high approach speed to the host vehicle is selected.

また、同一の接近物体が互いに異なる複数のカメラ11に撮影された場合、画像生成部31は、複数の撮影画像が同一の物体を映していることを認識する必要がある。例えば、左方カメラと後方カメラに同一の接近物体(車など)が映っている場合、接近物体の数を重複して数えないように両者が同一であることを認識する必要がある。   When the same approaching object is captured by a plurality of different cameras 11, the image generation unit 31 needs to recognize that the plurality of captured images show the same object. For example, when the same approaching object (such as a car) is shown in the left camera and the rear camera, it is necessary to recognize that they are the same so that the number of approaching objects is not counted repeatedly.

複数のカメラ11による撮影画像に同一物体が映っている場合、各撮影画像の端に物体が映っているはずである。例えば左カメラと後方カメラに同一物体が映っている場合、左方カメラの撮影画像の左端と後方カメラの撮影画像の右端とが接近物体の領域として検知される。よって、左方カメラの撮影画像の左端にある所定の画素領域と後方カメラの撮影画像の右端にある所定の画素領域に接近物体が検知された場合、画像生成部31は、それらを同一物体として認識する。   When the same object is reflected in the images captured by the plurality of cameras 11, the object should be reflected at the end of each captured image. For example, when the same object is shown in the left camera and the rear camera, the left end of the image captured by the left camera and the right end of the image captured by the rear camera are detected as the approaching object region. Therefore, when an approaching object is detected in the predetermined pixel region at the left end of the captured image of the left camera and the predetermined pixel region at the right end of the captured image of the rear camera, the image generation unit 31 sets them as the same object. recognize.

上述した仮想視点の決定方法により、自車の少なくとも一部と接近物体の両者が生成画像内に映ることが可能になる。従来、出力画像の中心に接近物体の中心を表示する技術はあったが、これでは自車が映らない場合があり、その場合、ユーザは接近物体との距離感が分かりにくい。一方、本実施の形態に係る出力画像は両者の距離感を分かりやすく表示することができる。   With the above-described virtual viewpoint determination method, at least a part of the own vehicle and the approaching object can be reflected in the generated image. Conventionally, there has been a technique for displaying the center of an approaching object at the center of the output image. However, in this case, the vehicle may not be reflected, and in this case, the user cannot easily understand the distance to the approaching object. On the other hand, the output image according to the present embodiment can display the sense of distance between them in an easy-to-understand manner.

次に、仮想視点を示す視点画像について説明する。   Next, a viewpoint image indicating a virtual viewpoint will be described.

視点画像は、出力画像の仮想視点を運転者に分かりやすく示す画像であり、出力画像と共に、あるいは出力画像中に表示される。   The viewpoint image is an image that clearly shows the virtual viewpoint of the output image to the driver, and is displayed together with or in the output image.

画像生成設定が切り替わった時点で、ユーザは仮想視点を瞬時に把握しにくい場合がある。出力画像と共に、仮想視点を示す視点画像を表示することにより、   When the image generation setting is switched, the user may not easily grasp the virtual viewpoint instantaneously. By displaying the viewpoint image showing the virtual viewpoint along with the output image,

予め仮想視点の方位角α(自車座標系のy軸とのなす角)の範囲(視点領域)で定義された視点領域が複数設定される。また、予め視点領域毎に、その視点領域から見た自車の画像(自車画像)が格納されている。図27は、本実施の形態に係る視点領域の一例を示す図である。本実施の形態において、仮想視点の方位角に対して、6個の視点領域T1〜T6が定義されている。   A plurality of viewpoint areas defined in advance in the range (viewpoint area) of the azimuth angle α of the virtual viewpoint (the angle formed with the y-axis of the host vehicle coordinate system) are set. In addition, an image of the own vehicle (own vehicle image) viewed from the viewpoint area is stored in advance for each viewpoint area. FIG. 27 is a diagram showing an example of the viewpoint area according to the present embodiment. In the present embodiment, six viewpoint regions T1 to T6 are defined with respect to the azimuth angle of the virtual viewpoint.

図28は、本実施の形態に係る視点領域と自車画像の対応付けの一例を示す表である。視点領域と自車画像の対応付けとして、αの範囲毎に、視点領域の番号、自車画像が定義されている。画像生成部31は、この対応付けとαの値とに従って、視点画像に用いる自車画像を選択する。   FIG. 28 is a table showing an example of the correspondence between the viewpoint area and the vehicle image according to the present embodiment. As the association between the viewpoint area and the own vehicle image, the viewpoint area number and the own vehicle image are defined for each range of α. The image generation unit 31 selects the vehicle image used for the viewpoint image according to the association and the value of α.

図29は、本実施の形態に係る自車画像の一例を示す図である。Vaは、自車の右方から見た自車の画像であり、仮想視点が自車の右方に存在する場合に用いられる。Vbは、自車の前方から見た自車の画像であり、仮想視点が自車の前方に存在する場合に用いられる。Vcは、自車の後方から見た自車の画像であり、仮想視点が自車の後方に存在する場合に用いられる。   FIG. 29 is a diagram showing an example of the own vehicle image according to the present embodiment. Va is an image of the host vehicle viewed from the right side of the host vehicle, and is used when the virtual viewpoint exists on the right side of the host vehicle. Vb is an image of the host vehicle viewed from the front of the host vehicle, and is used when the virtual viewpoint exists in front of the host vehicle. Vc is an image of the vehicle viewed from the back of the vehicle, and is used when the virtual viewpoint exists behind the vehicle.

更に、画像生成部31は、選択した自車画像に、仮想視点を表すカメラの図形(カメラマーク)を配置することにより、視点画像を生成する。予め自車画像は格子状に区切られ、自車画像内の格子が仮想視点の座標に対応付けられる。   Furthermore, the image generation unit 31 generates a viewpoint image by placing a camera figure (camera mark) representing a virtual viewpoint on the selected vehicle image. The host vehicle image is divided in advance in a grid pattern, and the grid in the host vehicle image is associated with the coordinates of the virtual viewpoint.

図30は、本実施の形態に係る自車画像におけるカメラマークの配置の一例を示す図である。この例では、自車画像としてVaが選択された場合を示す。画像生成部31は、Va内の領域を格子状の領域M1,M2,・・・に分割し、仮想視点のx座標とz座標に対応するVa内の格子にカメラマークを配置する。例えば仮想視点のx座標が−20〜−10、z座標が30以上のときは領域M1にカメラマークを配置するというように決めておく。つぎに、画像生成部31は、仮想視点パラメータの仰角の値を用いてカメラマークの向きを決定する。   FIG. 30 is a diagram showing an example of the arrangement of camera marks in the own vehicle image according to the present embodiment. In this example, Va is selected as the vehicle image. The image generation unit 31 divides the region in Va into lattice-like regions M1, M2,..., And places camera marks on the lattice in Va corresponding to the x coordinate and the z coordinate of the virtual viewpoint. For example, when the x coordinate of the virtual viewpoint is −20 to −10 and the z coordinate is 30 or more, the camera mark is determined to be arranged in the region M1. Next, the image generation unit 31 determines the orientation of the camera mark using the elevation angle value of the virtual viewpoint parameter.

図31は、本実施の形態に係る視点画像が付加された出力画像の一例を示す図である。本実施の形態において、画像生成部31は、出力画像内の右下部分に視点画像を配置する。   FIG. 31 is a diagram illustrating an example of an output image to which a viewpoint image according to the present embodiment is added. In the present embodiment, the image generation unit 31 arranges the viewpoint image in the lower right part of the output image.

また、仮想視点パラメータが無い場合、つまり画像生成設定PFの場合、画像生成部31は、カメラパラメータを用いて視点画像を生成する。   Further, when there is no virtual viewpoint parameter, that is, in the case of the image generation setting PF, the image generation unit 31 generates a viewpoint image using the camera parameter.

なお、画像生成部31は、仮想視点の切り替え時、切り替え前の仮想視点から切り替え後の仮想視点までを補間した仮想視点を生成し、補間した仮想視点を用いて、切り替え前の出力画像から切り替え後の出力画像までを連続的に変化させた出力画像を生成しても良い。   The image generation unit 31 generates a virtual viewpoint obtained by interpolating from the virtual viewpoint before switching to the virtual viewpoint after switching when switching the virtual viewpoint, and switches from the output image before switching using the interpolated virtual viewpoint. An output image obtained by continuously changing up to the subsequent output image may be generated.

本実施の形態に係る車両用画像処理装置は、CPU及び記憶装置により実現されても良い。このとき、位置・進行方向検知部21、地図情報DB(database)22、位置種別認識部23、運転状態検知部24、接近物体認識部25、画像生成部3は、CPUにより実行されるプログラムとして記憶装置に格納される。また、本実施の形態に係る車両用画像処理装置は、カーナビゲーションシステムに適用することができる。   The vehicular image processing apparatus according to the present embodiment may be realized by a CPU and a storage device. At this time, the position / traveling direction detection unit 21, the map information DB (database) 22, the position type recognition unit 23, the driving state detection unit 24, the approaching object recognition unit 25, and the image generation unit 3 are programs executed by the CPU. It is stored in a storage device. The vehicle image processing apparatus according to the present embodiment can be applied to a car navigation system.

次に、本実施の形態に係る車両用画像処理装置の動作について説明する。   Next, the operation of the vehicle image processing apparatus according to this embodiment will be described.

図32は、本実施の形態に係る車両用画像処理装置の動作の一例を示すフローチャートである。画像撮影部1の各カメラ11により撮像された撮影画像は、画像データバッファ1aへ一時的に蓄積される。   FIG. 32 is a flowchart illustrating an example of the operation of the vehicle image processing device according to the present embodiment. The captured image captured by each camera 11 of the image capturing unit 1 is temporarily stored in the image data buffer 1a.

最初に、位置・進行方向検知部21が自車位置(緯度、経度、進行方向)を取得し、画像処理部3へ送る(S1)。自車位置を取得した画像処理部3は、登録位置DB321を参照し、自車位置が登録位置のいずれかに該当するか否かの判定を行う(S2)。ここで、画像処理部3は、自車位置が登録位置の半径20メートル以内であれば、自車位置が登録位置に該当すると判定する。   First, the position / traveling direction detection unit 21 acquires the vehicle position (latitude, longitude, traveling direction) and sends it to the image processing unit 3 (S1). The image processing unit 3 that has acquired the own vehicle position refers to the registered position DB 321 and determines whether the own vehicle position corresponds to one of the registered positions (S2). Here, the image processing unit 3 determines that the own vehicle position corresponds to the registered position if the own vehicle position is within a radius of 20 meters of the registered position.

自車位置が登録位置に該当する場合(S2,Y)、画像処理部3は、自車位置に対応する画像生成設定を登録位置DB321により決定し、画像生成設定に従って出力画像を生成し(S9)、画像表示部4に表示させる(S10)。次に、画像処理部3は、自車の運転が終了しているか否かの判定を行い(S11)、終了していれば(S11,Y)、このフローは終了し、終了していなければ(S11,N)、処理S1に戻る。なお、自車の運転が終了しているかどうかは、自車のエンジンがかかっているか否かで識別すればよい。   When the own vehicle position corresponds to the registered position (S2, Y), the image processing unit 3 determines the image generation setting corresponding to the own vehicle position by the registered position DB 321 and generates an output image according to the image generation setting (S9). ) And displayed on the image display unit 4 (S10). Next, the image processing unit 3 determines whether or not the driving of the host vehicle has ended (S11). If it has ended (S11, Y), this flow ends, and if it has not ended. (S11, N), the process returns to S1. Whether or not the driving of the host vehicle has ended may be identified by whether or not the engine of the host vehicle is running.

自車位置が登録位置に該当しない場合(S2,N)、位置種別認識部23は、位置・進行方向検知部21から自車位置を取得し、地図情報DB22から自車位置の位置種別を認識し、認識結果を画像処理部3に送る(S3)。次に、画像処理部3は、位置種別DB322を参照し、取得した位置種別に対応する画像生成設定が存在するか否かの判定を行う(S4)。   When the own vehicle position does not correspond to the registered position (S2, N), the position type recognition unit 23 acquires the own vehicle position from the position / traveling direction detection unit 21, and recognizes the position type of the own vehicle position from the map information DB 22. The recognition result is sent to the image processing unit 3 (S3). Next, the image processing unit 3 refers to the position type DB 322 and determines whether there is an image generation setting corresponding to the acquired position type (S4).

取得した位置種別に対応する画像生成設定が存在する場合(S4,Y)、画像処理部3は、取得した位置種別に対応する画像生成設定を位置種別DB322により決定し、処理S9へ移行する。   When there is an image generation setting corresponding to the acquired position type (S4, Y), the image processing unit 3 determines the image generation setting corresponding to the acquired position type using the position type DB 322, and proceeds to the process S9.

取得した位置種別に対応する画像生成設定が存在しない場合(S4,N)、運転状態検知部24が車両の操作状態から運転状態を検知し、検知結果を画像処理部3に送る(S5)。次に、画像処理部3は、運転状態DB323を参照し、取得した運転状態に対応する画像生成設定が存在するか否かの判定を行う(S6)。   When there is no image generation setting corresponding to the acquired position type (S4, N), the driving state detection unit 24 detects the driving state from the operation state of the vehicle, and sends the detection result to the image processing unit 3 (S5). Next, the image processing unit 3 refers to the driving state DB 323 and determines whether there is an image generation setting corresponding to the acquired driving state (S6).

取得した運転状態に対応する画像生成設定が存在する場合(S6,Y)、画像処理部3は、取得した運転状態に対応する画像生成設定を運転状態DB323により決定し、処理S9へ移行する。   When the image generation setting corresponding to the acquired driving state exists (S6, Y), the image processing unit 3 determines the image generation setting corresponding to the acquired driving state by the driving state DB 323, and proceeds to the process S9.

取得した運転状態に対応する画像生成設定が存在しない場合(S6,N)、接近物体検知部25は、自車への接近物体を検知し、検知結果を画像処理部3に送る(S7)。次に、画像処理部3は、接近物体数DB324を参照し、取得した接近物体数に対応する画像生成設定が存在するか否かの判定を行う(S8)。   When there is no image generation setting corresponding to the acquired driving state (S6, N), the approaching object detection unit 25 detects an approaching object to the host vehicle and sends the detection result to the image processing unit 3 (S7). Next, the image processing unit 3 refers to the approaching object number DB 324 and determines whether there is an image generation setting corresponding to the acquired approaching object number (S8).

取得した接近物体数に対応する画像生成設定が存在する場合(S8,Y)、画像処理部3は、取得した接近物体数に対応する画像生成設定を接近物体数DB324により決定し、処理S9へ移行する。   When the image generation setting corresponding to the acquired approaching object number exists (S8, Y), the image processing unit 3 determines the image generation setting corresponding to the acquired approaching object number by the approaching object number DB 324, and proceeds to the process S9. Transition.

取得した接近物体数に対応する画像生成設定が存在しない場合(S8,N)、処理S11へ移行する。   When there is no image generation setting corresponding to the acquired number of approaching objects (S8, N), the process proceeds to S11.

本実施の形態によれば、車両状況として、車両の現在位置の位置種別、運転状態、接近物体の数等を認識することができる。これにより、多様な車両状況に対して適切な出力画像を設定することができ、有用な画像を表示することが可能になる。   According to the present embodiment, it is possible to recognize the position of the current position of the vehicle, the driving state, the number of approaching objects, and the like as the vehicle situation. Thereby, an appropriate output image can be set for various vehicle situations, and a useful image can be displayed.

さらに、ユーザが予め登録した位置に対応して出力画像の設定を変更するができるため、たとえば「自宅駐車場」や「自宅から勤務地までの道における特定の場所」など車両状況検知・認識部2では識別することが難しい状況でも有用な画像を表示することが可能になる。   Furthermore, since the setting of the output image can be changed corresponding to the position registered in advance by the user, for example, a vehicle status detection / recognition unit such as “home parking lot” or “a specific place on the road from home to work place” 2 makes it possible to display useful images even in situations where it is difficult to identify.

本発明は、その精神または主要な特徴から逸脱することなく、他の様々な形で実施することができる。そのため、前述の実施の形態は、あらゆる点で単なる例示に過ぎず、限定的に解釈してはならない。本発明の範囲は、特許請求の範囲によって示すものであって、明細書本文には、何ら拘束されない。更に、特許請求の範囲の均等範囲に属する全ての変形、様々な改良、代替および改質は、全て本発明の範囲内のものである。   The present invention can be implemented in various other forms without departing from the spirit or main features thereof. Therefore, the above-described embodiment is merely an example in all respects and should not be interpreted in a limited manner. The scope of the present invention is shown by the scope of claims, and is not restricted by the text of the specification. Further, all modifications, various improvements, alternatives and modifications belonging to the equivalent scope of the claims are all within the scope of the present invention.

以上の実施の形態に関し、更に以下の付記を開示する。   Regarding the above embodiment, the following additional notes are disclosed.

(付記1) 車両に搭載される画像処理装置であって、
複数のカメラにより撮影された撮影画像を取得する画像取得部と、
前記車両の位置に関する情報である車両位置の認識を行う位置認識部と、
前記位置認識部により認識された車両位置の種別である位置種別を認識する位置種別認識部と、
前記位置種別認識部により認識された位置種別に基づいて、視点を決定する視点決定部と、
前記画像取得部により取得された撮影画像に基づいて、前記視点決定部により決定された視点から見た画像を出力画像として生成する画像生成部と、
を備える画像処理装置。
(付記2) 付記1に記載の画像処理装置において、
前記画像生成部は、前記撮影画像を所定の形状に投影して投影画像とし、前記視点から該投影画像を見た画像を前記出力画像として生成する画像処理装置。
(付記3) 付記1に記載の画像処理装置において、
前記視点決定部は、前記位置種別と前記視点の対応付けを取得し、前記位置種別認識部により認識された位置種別と該対応付けとに基づいて、前記出力画像の視点を決定する画像処理装置。
(付記4) 付記1に記載の画像処理装置において、
前記位置種別は、登録された位置を含む画像処理装置。
(付記5) 付記1に記載の画像処理装置において、
前記位置種別認識部は、地図情報を取得し、該地図情報と前記車両位置とに基づいて、位置種別を認識する画像処理装置。
(付記6) 付記1に記載の画像処理装置において、
更に、前記車両の運転に関する情報である運転情報を取得する運転情報取得部を備え、
前記視点決定部は、前記位置種別認識部により認識された位置種別と視点の対応付けが無い場合、前記運転情報取得部により取得された運転情報に基づいて視点を決定する画像処理装置。
(付記7) 付記6に記載の画像処理装置において、
前記視点決定部は、前記運転情報と前記視点の対応付けを取得し、前記運転情報取得部により取得された運転情報と該対応付けとに基づいて、前記出力画像の視点を決定する画像処理装置。
(付記8) 付記1に記載の画像処理装置において、
更に、前記車両の周囲の物体の位置を検知する物体検知部を備え、
前記視点決定部は、前記位置種別認識部により認識された位置種別と視点の対応付けが無い場合、前記物体検知部により検知された物体の位置に基づいて視点を決定する画像処理装置。
(付記9) 付記8に記載の画像処理装置において、
前記視点決定部は、前記物体検知部により検知された物体の位置と前記車両の位置とが前記出力画像に映るように前記出力画像の視点を決定する画像処理装置。
(付記10) 付記1に記載の画像処理装置において、
更に、前記画像生成部により生成された出力画像を表示する画像処理装置。
(付記11) 付記1に記載の画像処理装置において、
前記画像生成部は更に、前記視点決定部により決定された視点を表す視点画像を前記出力画像に含める画像処理装置。
(付記12) 付記11に記載の画像処理装置において、
前記視点画像は、前記視点決定部により決定された視点から見た前記車両の画像である画像処理装置。
(付記13) 車両周辺が撮影された画像の画像処理を行う画像処理方法であって、
複数のカメラにより撮影された撮影画像を取得し、
前記車両の位置に関する情報である車両位置の認識を行い、
認識された車両位置の種別である位置種別を認識し、
認識された位置種別に基づいて、視点を決定し、
取得された撮影画像に基づいて、決定された視点から見た画像を出力画像として生成する
ことを行う画像処理方法。
(付記14) 付記13に記載の画像処理方法において、
前記撮影画像を所定の形状に投影して投影画像とし、前記視点から該投影画像を見た画像を前記出力画像として生成する画像処理方法。
(付記15) 付記13に記載の画像処理方法において、
前記位置種別と前記視点の対応付けを取得し、認識された位置種別と該対応付けとに基づいて、前記出力画像の視点を決定する画像処理方法。
(付記16) 付記13に記載の画像処理方法において、
前記位置種別は、登録された位置を含む画像処理方法。
(付記17) 付記13に記載の画像処理方法において、
地図情報を取得し、該地図情報と前記車両位置とに基づいて、位置種別を認識する画像処理方法。
(付記18) 付記13に記載の画像処理方法において、
更に、前記車両の運転に関する情報である運転情報を取得し、
前記位置種別認識部により認識された位置種別と視点の対応付けが無い場合、取得された運転情報に基づいて視点を決定する画像処理方法。
(付記19) 付記18に記載の画像処理方法において、
前記運転情報と前記視点の対応付けを取得し、前記運転情報取得部により取得された運転情報と該対応付けとに基づいて、前記出力画像の視点を決定する画像処理方法。
(付記20) 付記13に記載の画像処理方法において、
更に、前記車両の周囲の物体の位置を検知し、
前記位置種別認識部により認識された位置種別と視点の対応付けが無い場合、検知された物体の位置に基づいて視点を決定する画像処理方法。
(Appendix 1) An image processing apparatus mounted on a vehicle,
An image acquisition unit for acquiring captured images captured by a plurality of cameras;
A position recognition unit for recognizing a vehicle position, which is information relating to the position of the vehicle;
A position type recognition unit for recognizing a position type that is a type of vehicle position recognized by the position recognition unit;
A viewpoint determination unit that determines a viewpoint based on the position type recognized by the position type recognition unit;
An image generation unit that generates, as an output image, an image viewed from the viewpoint determined by the viewpoint determination unit based on the captured image acquired by the image acquisition unit;
An image processing apparatus comprising:
(Supplementary Note 2) In the image processing apparatus according to Supplementary Note 1,
The image generation unit is an image processing apparatus that projects the captured image into a predetermined shape to form a projection image, and generates an image obtained by viewing the projection image from the viewpoint as the output image.
(Supplementary Note 3) In the image processing apparatus according to Supplementary Note 1,
The viewpoint determination unit acquires an association between the position type and the viewpoint, and determines the viewpoint of the output image based on the position type recognized by the position type recognition unit and the association. .
(Supplementary Note 4) In the image processing apparatus according to Supplementary Note 1,
The position type is an image processing apparatus including a registered position.
(Supplementary Note 5) In the image processing apparatus according to Supplementary Note 1,
The position type recognition unit is an image processing apparatus that acquires map information and recognizes a position type based on the map information and the vehicle position.
(Supplementary note 6) In the image processing apparatus according to supplementary note 1,
And a driving information acquisition unit that acquires driving information that is information related to driving of the vehicle,
The viewpoint determination unit is an image processing device that determines a viewpoint based on driving information acquired by the driving information acquisition unit when there is no association between the position type recognized by the position type recognition unit and the viewpoint.
(Supplementary note 7) In the image processing apparatus according to supplementary note 6,
The viewpoint determination unit acquires an association between the driving information and the viewpoint, and determines the viewpoint of the output image based on the driving information acquired by the driving information acquisition unit and the association .
(Supplementary note 8) In the image processing apparatus according to supplementary note 1,
Furthermore, an object detection unit that detects the position of an object around the vehicle,
The viewpoint determination unit is an image processing apparatus that determines a viewpoint based on a position of an object detected by the object detection unit when there is no correspondence between the position type recognized by the position type recognition unit and the viewpoint.
(Supplementary note 9) In the image processing apparatus according to supplementary note 8,
The viewpoint determination unit is an image processing apparatus that determines a viewpoint of the output image so that the position of the object detected by the object detection unit and the position of the vehicle are reflected in the output image.
(Supplementary Note 10) In the image processing apparatus according to Supplementary Note 1,
Furthermore, an image processing apparatus that displays an output image generated by the image generation unit.
(Supplementary note 11) In the image processing apparatus according to supplementary note 1,
The image generation device further includes a viewpoint image representing the viewpoint determined by the viewpoint determination unit in the output image.
(Supplementary Note 12) In the image processing apparatus according to Supplementary Note 11,
The said viewpoint image is an image processing apparatus which is an image of the said vehicle seen from the viewpoint determined by the said viewpoint determination part.
(Supplementary note 13) An image processing method for performing image processing of an image obtained by photographing the periphery of a vehicle,
Acquire images taken by multiple cameras,
Recognizing the vehicle position, which is information about the position of the vehicle,
Recognize the position type, which is the recognized vehicle position type,
Based on the recognized location type, determine the viewpoint,
An image processing method for generating, as an output image, an image viewed from a determined viewpoint based on an acquired captured image.
(Supplementary note 14) In the image processing method according to supplementary note 13,
An image processing method for projecting the photographed image into a predetermined shape to form a projected image, and generating an image obtained by viewing the projected image from the viewpoint as the output image.
(Supplementary note 15) In the image processing method according to supplementary note 13,
An image processing method for acquiring an association between the position type and the viewpoint and determining a viewpoint of the output image based on the recognized position type and the association.
(Supplementary note 16) In the image processing method according to supplementary note 13,
The position type is an image processing method including a registered position.
(Supplementary note 17) In the image processing method according to supplementary note 13,
An image processing method for acquiring map information and recognizing a position type based on the map information and the vehicle position.
(Supplementary note 18) In the image processing method according to supplementary note 13,
Furthermore, driving information that is information related to driving of the vehicle is acquired,
An image processing method for determining a viewpoint based on acquired driving information when there is no correspondence between a position type recognized by the position type recognition unit and a viewpoint.
(Supplementary note 19) In the image processing method according to supplementary note 18,
An image processing method for acquiring association between the driving information and the viewpoint and determining a viewpoint of the output image based on the driving information acquired by the driving information acquisition unit and the association.
(Supplementary note 20) In the image processing method according to supplementary note 13,
Furthermore, the position of the object around the vehicle is detected,
An image processing method for determining a viewpoint based on a detected position of an object when there is no correspondence between the position type recognized by the position type recognition unit and the viewpoint.

本実施の形態に係る車両用画像処理装置の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the image processing apparatus for vehicles which concerns on this Embodiment. 本実施の形態に係るカメラパラメータテーブルの一例を示す表である。It is a table | surface which shows an example of the camera parameter table which concerns on this Embodiment. 本実施の形態に係るカメラの配置の一例について車両左方から見た配置図である。It is the layout which looked at the example of arrangement | positioning of the camera which concerns on this Embodiment from the vehicle left side. 本実施の形態に係るカメラの配置の一例について車両上方から見た配置図である。It is the layout which looked at the example of arrangement | positioning of the camera which concerns on this Embodiment from the vehicle upper direction. 本実施の形態に係るカメラの配置の一例について車両前方から見た配置図である。It is the layout which looked at the example of arrangement | positioning of the camera which concerns on this Embodiment from the vehicle front. 本実施の形態に係る撮影画像の一例を示す図である。It is a figure which shows an example of the picked-up image which concerns on this Embodiment. 本実施の形態に係る画像処理部により生成された出力画像の一例を示す図である。It is a figure which shows an example of the output image produced | generated by the image process part which concerns on this Embodiment. 本実施の形態に係る自車座標系の一例を示す図である。It is a figure which shows an example of the own vehicle coordinate system which concerns on this Embodiment. 本実施の形態に係る地図情報DBの一例を示す表である。It is a table | surface which shows an example of map information DB which concerns on this Embodiment. 本実施の形態に係る運転状態対応テーブルの一例を示す表である。It is a table | surface which shows an example of the driving | operation state corresponding | compatible table which concerns on this Embodiment. 本実施の形態に係る画像パラメータDBの一例を示す表である。It is a table | surface which shows an example of image parameter DB which concerns on this Embodiment. 本実施の形態に係る登録位置DBの一例を示す表である。It is a table | surface which shows an example of registration position DB which concerns on this Embodiment. 本実施の形態に係る位置種別DBの一例を示す表である。It is a table | surface which shows an example of position classification DB which concerns on this Embodiment. 本実施の形態に係る運転状態DBの一例を示す表である。It is a table | surface which shows an example of driving | running state DB which concerns on this Embodiment. 本実施の形態に係る接近物体数DBの一例を示す表である。It is a table | surface which shows an example of approaching object number DB which concerns on this Embodiment. 本実施の形態に係る画像生成設定DBの一例を示す表である。It is a table | surface which shows an example of image generation setting DB which concerns on this Embodiment. 本実施の形態に係る投影形状の一例を示す式である。It is a formula which shows an example of the projection shape concerning this embodiment. 本実施の形態に係る投影画像の一例を示す図である。It is a figure which shows an example of the projection image which concerns on this Embodiment. 本実施の形態に係る仮想視点aの一例を示す図である。It is a figure which shows an example of the virtual viewpoint a which concerns on this Embodiment. 本実施の形態に係る仮想視点bの一例を示す図である。It is a figure which shows an example of the virtual viewpoint b which concerns on this Embodiment. 本実施の形態に係る仮想視点cの一例を示す図である。It is a figure which shows an example of the virtual viewpoint c which concerns on this Embodiment. 本実施の形態に係る仮想視点dの一例を示す図である。It is a figure which shows an example of the virtual viewpoint d which concerns on this Embodiment. 本実施の形態に係る仮想視点eの一例を示す図である。It is a figure which shows an example of the virtual viewpoint e which concerns on this Embodiment. 本実施の形態に係る接近物体が1個の場合の仮想視点bの出力画像の一例を示す図である。It is a figure which shows an example of the output image of the virtual viewpoint b in case the number of the approaching objects which concern on this Embodiment is one. 本実施の形態に係る接近物体の外接四角形の位置の条件を示す式である。It is a type | formula which shows the conditions of the position of the circumscribed rectangle of the approaching object which concerns on this Embodiment. 本実施の形態に係る接近物体が2個の場合の仮想視点bの出力画像の一例を示す図である。It is a figure which shows an example of the output image of the virtual viewpoint b in case the two approaching objects which concern on this Embodiment are two. 本実施の形態に係る視点領域の一例を示す図である。It is a figure which shows an example of the viewpoint area | region which concerns on this Embodiment. 本実施の形態に係る視点領域と自車画像の対応付けの一例を示す表である。It is a table | surface which shows an example of matching with the viewpoint area | region and own vehicle image which concern on this Embodiment. 本実施の形態に係る自車画像の一例を示す図である。It is a figure which shows an example of the own vehicle image which concerns on this Embodiment. 本実施の形態に係る自車画像におけるカメラマークの配置の一例を示す図である。It is a figure which shows an example of arrangement | positioning of the camera mark in the own vehicle image which concerns on this Embodiment. 本実施の形態に係る視点画像が付加された出力画像の一例を示す図である。It is a figure which shows an example of the output image to which the viewpoint image which concerns on this Embodiment was added. 本実施の形態に係る車両用画像処理装置の動作の一例を示すフローチャートである。It is a flowchart which shows an example of operation | movement of the vehicle image processing apparatus which concerns on this Embodiment.

符号の説明Explanation of symbols

1 画像撮影部、2 車両状況検知・認識部、3 画像処理部、4 画像表示部、11 カメラ、1a カメラパラメータテーブル、1b 画像データバッファ、21 位置・進行方向検知部、22 地図情報DB、23 位置種別認識部、24 運転状態検知部、25 接近物体認識部、31 画像生成部、32 画像パラメータDB、321 登録位置DB、322 位置種別DB、333 運転状態DB、324 接近物体数DB、325 画像生成設定DB。 DESCRIPTION OF SYMBOLS 1 Image photographing part, 2 Vehicle condition detection / recognition part, 3 Image processing part, 4 Image display part, 11 Camera, 1a Camera parameter table, 1b Image data buffer, 21 Position / traveling direction detection part, 22 Map information DB, 23 Position type recognition unit, 24 driving state detection unit, 25 approaching object recognition unit, 31 image generation unit, 32 image parameter DB, 321 registration position DB, 322 position type DB, 333 driving state DB, 324 approaching object number DB, 325 image Generation setting DB.

Claims (6)

車両に搭載される画像処理装置であって、
複数のカメラにより撮影された撮影画像を取得する画像取得部と、
前記車両の位置に関する情報である車両位置の認識を行う位置認識部と、
前記位置認識部により認識された車両位置の種別である位置種別を認識する位置種別認識部と、
前記位置種別認識部により認識された位置種別に基づいて、視点を決定する視点決定部と、
前記画像取得部により取得された撮影画像に基づいて、前記視点決定部により決定された視点から見た画像を出力画像として生成する画像生成部と、
を備える画像処理装置。
An image processing apparatus mounted on a vehicle,
An image acquisition unit for acquiring captured images captured by a plurality of cameras;
A position recognition unit for recognizing a vehicle position, which is information relating to the position of the vehicle;
A position type recognition unit for recognizing a position type that is a type of vehicle position recognized by the position recognition unit;
A viewpoint determination unit that determines a viewpoint based on the position type recognized by the position type recognition unit;
An image generation unit that generates, as an output image, an image viewed from the viewpoint determined by the viewpoint determination unit based on the captured image acquired by the image acquisition unit;
An image processing apparatus comprising:
請求項1に記載の画像処理装置において、
前記画像生成部は、前記撮影画像を所定の形状に投影して投影画像とし、前記視点から該投影画像を見た画像を前記出力画像として生成する画像処理装置。
The image processing apparatus according to claim 1.
The image generation unit is an image processing apparatus that projects the captured image into a predetermined shape to form a projection image, and generates an image obtained by viewing the projection image from the viewpoint as the output image.
請求項1または請求項2に記載の画像処理装置において、
前記視点決定部は、前記位置種別と前記視点の対応付けを取得し、前記位置種別認識部により認識された位置種別と該対応付けとに基づいて、前記出力画像の視点を決定する画像処理装置。
The image processing apparatus according to claim 1 or 2,
The viewpoint determination unit acquires an association between the position type and the viewpoint, and determines the viewpoint of the output image based on the position type recognized by the position type recognition unit and the association. .
請求項1乃至請求項3のいずれかに記載の画像処理装置において、
前記位置種別は、登録された位置を含む画像処理装置。
The image processing apparatus according to any one of claims 1 to 3,
The position type is an image processing apparatus including a registered position.
請求項1乃至請求項4のいずれかに記載の画像処理装置において、
前記位置種別認識部は、地図情報を取得し、該地図情報と前記車両位置とに基づいて、位置種別を認識する画像処理装置。
The image processing apparatus according to any one of claims 1 to 4,
The position type recognition unit is an image processing apparatus that acquires map information and recognizes a position type based on the map information and the vehicle position.
車両周辺が撮影された画像の画像処理を行う画像処理方法であって、
複数のカメラにより撮影された撮影画像を取得し、
前記車両の位置に関する情報である車両位置の認識を行い、
認識された車両位置の種別である位置種別を認識し、
認識された位置種別に基づいて、視点を決定し、
取得された撮影画像に基づいて、決定された視点から見た画像を出力画像として生成する
ことを行う画像処理方法。
An image processing method for performing image processing of an image obtained by photographing a periphery of a vehicle,
Acquire images taken by multiple cameras,
Recognizing the vehicle position, which is information about the position of the vehicle,
Recognize the position type, which is the recognized vehicle position type,
Based on the recognized location type, determine the viewpoint,
An image processing method for generating, as an output image, an image viewed from a determined viewpoint based on an acquired captured image.
JP2008045780A 2008-02-27 2008-02-27 Image processing apparatus and image processing method Active JP5104397B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008045780A JP5104397B2 (en) 2008-02-27 2008-02-27 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008045780A JP5104397B2 (en) 2008-02-27 2008-02-27 Image processing apparatus and image processing method

Publications (2)

Publication Number Publication Date
JP2009206702A true JP2009206702A (en) 2009-09-10
JP5104397B2 JP5104397B2 (en) 2012-12-19

Family

ID=41148555

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008045780A Active JP5104397B2 (en) 2008-02-27 2008-02-27 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP5104397B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011048716A1 (en) * 2009-10-21 2011-04-28 パナソニック株式会社 Video image conversion device and image capture device
JP2011182059A (en) * 2010-02-26 2011-09-15 Mitsubishi Motors Corp Vehicle periphery monitoring device
JP2012253428A (en) * 2011-05-31 2012-12-20 Fujitsu Ten Ltd Information processing system, server device, and on-vehicle device
JP2014199677A (en) * 2014-07-02 2014-10-23 パナソニック株式会社 Driving supporting device
WO2015002031A1 (en) * 2013-07-03 2015-01-08 クラリオン株式会社 Video display system, video compositing device, and video compositing method
JP2017046214A (en) * 2015-08-27 2017-03-02 株式会社デンソー On-vehicle display control device and on-vehicle display control method
JP2018039295A (en) * 2016-09-05 2018-03-15 日産自動車株式会社 Display method for display apparatus and display apparatus

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7261206B2 (en) 2020-10-13 2023-04-19 芝浦機械株式会社 Processing machine and manufacturing method of workpiece

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3300334B2 (en) * 1999-04-16 2002-07-08 松下電器産業株式会社 Image processing device and monitoring system
JP2005318519A (en) * 2004-03-31 2005-11-10 Denso Corp Imaging apparatus for vehicles
JP2007210458A (en) * 2006-02-09 2007-08-23 Nissan Motor Co Ltd Display device for vehicle and image display control method for vehicle

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3300334B2 (en) * 1999-04-16 2002-07-08 松下電器産業株式会社 Image processing device and monitoring system
JP2005318519A (en) * 2004-03-31 2005-11-10 Denso Corp Imaging apparatus for vehicles
JP2007210458A (en) * 2006-02-09 2007-08-23 Nissan Motor Co Ltd Display device for vehicle and image display control method for vehicle

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011048716A1 (en) * 2009-10-21 2011-04-28 パナソニック株式会社 Video image conversion device and image capture device
JP2011091527A (en) * 2009-10-21 2011-05-06 Panasonic Corp Video conversion device and imaging apparatus
CN102577374A (en) * 2009-10-21 2012-07-11 松下电器产业株式会社 Video image conversion device and image capture device
JP2011182059A (en) * 2010-02-26 2011-09-15 Mitsubishi Motors Corp Vehicle periphery monitoring device
JP2012253428A (en) * 2011-05-31 2012-12-20 Fujitsu Ten Ltd Information processing system, server device, and on-vehicle device
WO2015002031A1 (en) * 2013-07-03 2015-01-08 クラリオン株式会社 Video display system, video compositing device, and video compositing method
JP2015015527A (en) * 2013-07-03 2015-01-22 クラリオン株式会社 Video display system, video synthesis device and video synthesis method
JP2014199677A (en) * 2014-07-02 2014-10-23 パナソニック株式会社 Driving supporting device
JP2017046214A (en) * 2015-08-27 2017-03-02 株式会社デンソー On-vehicle display control device and on-vehicle display control method
WO2017034026A1 (en) * 2015-08-27 2017-03-02 株式会社デンソー Display control device and display control method
JP2018039295A (en) * 2016-09-05 2018-03-15 日産自動車株式会社 Display method for display apparatus and display apparatus

Also Published As

Publication number Publication date
JP5104397B2 (en) 2012-12-19

Similar Documents

Publication Publication Date Title
JP5104397B2 (en) Image processing apparatus and image processing method
US6411898B2 (en) Navigation device
CN111052733B (en) Surrounding vehicle display method and surrounding vehicle display device
JP5062498B2 (en) Reference data generation system and position positioning system for landscape matching
JP4940168B2 (en) Parking space recognition device
JP5922866B2 (en) System and method for providing guidance information to a vehicle driver
JP7052786B2 (en) Display control device and display control program
JP2019011017A (en) Display system, information presentation system, method for controlling display system, program, and mobile body
JP2011529569A (en) Computer apparatus and method for displaying navigation data in three dimensions
US11721213B1 (en) Displaying sensor data and supplemental data as a mask for autonomous vehicles
CN107465890B (en) Image processing device for vehicle
JP4869745B2 (en) Depression angle calculation device, depression angle calculation method, depression angle calculation program, and image processing apparatus
KR20140114373A (en) Method and device for visualizing the surroundings of a vehicle
WO2020021842A1 (en) Vehicle display control device, vehicle display control method, control program, and persistent tangible computer-readable medium
JP2006344009A (en) Method and system for monitoring periphery of vehicle
JP2014119372A (en) Navigation device and method for guiding travel route at tollhouse
CN111034186B (en) Surrounding vehicle display method and surrounding vehicle display device
JP2019036826A (en) Display method for vehicle and display device for vehicle
JP2011134207A (en) Drive recorder and map generation system
JP2012007922A (en) Road structure measuring method and road surface measuring device
KR102174729B1 (en) Method and system for recognizing lane using landmark
JP4948338B2 (en) Inter-vehicle distance measuring device
CN111094898A (en) Method, device, and computer-readable storage medium having instructions for controlling display of an augmented reality heads-up display device for a motor vehicle
JP6185327B2 (en) Vehicle rear side warning device, vehicle rear side warning method, and other vehicle distance detection device
JP2023165721A (en) display control device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101018

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120327

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120403

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120604

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120904

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120917

R150 Certificate of patent or registration of utility model

Ref document number: 5104397

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151012

Year of fee payment: 3