JP2005167638A - Mobile surrounding surveillance apparatus, vehicle, and image transforming method - Google Patents

Mobile surrounding surveillance apparatus, vehicle, and image transforming method Download PDF

Info

Publication number
JP2005167638A
JP2005167638A JP2003403829A JP2003403829A JP2005167638A JP 2005167638 A JP2005167638 A JP 2005167638A JP 2003403829 A JP2003403829 A JP 2003403829A JP 2003403829 A JP2003403829 A JP 2003403829A JP 2005167638 A JP2005167638 A JP 2005167638A
Authority
JP
Japan
Prior art keywords
image
center
image data
moving body
cylindrical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003403829A
Other languages
Japanese (ja)
Inventor
Kiyoshi Kumada
清 熊田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2003403829A priority Critical patent/JP2005167638A/en
Publication of JP2005167638A publication Critical patent/JP2005167638A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To obtain an image which gives a driver less uncomfortable feeling and facilitates the checking of surroundings around a vehicle to reduce a burden on the driver and raise safety. <P>SOLUTION: An imaging means 11b converts into image data an optical image obtained from a picture taken over a view field of 360° around through an optical system 11a capable of performing central projective transformation. An image processing means 12 converts the image data into panorama image data or see-through image data, and a display means 13 displays an image corresponding to the second image data. It converts the vicinity of the view field center into image data so that a road surface is looked down, and a portion with a distance from the view field center is projected on a partly cylindrical surface or a partly spherical surface having an axis passing the projective transformation center at a position with a fixed distance from the projective transformation center in a plane parallel to the road surface with a radius equal to the distance between the projective transformation center and the road surface, thereby converting the portion into image data. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、移動体の周囲を監視するための移動体周囲監視装置、これを搭載した移動体および画像変換方法に関し、特に、人または貨物を輸送する自動車または電車などの車両を含む移動体の周囲を監視するための移動体周囲監視装置、これが搭載された移動体および画像変換方法に関する。   The present invention relates to a moving body surroundings monitoring device for monitoring the surroundings of a moving body, a moving body equipped with the moving body monitoring apparatus, and an image conversion method, and more particularly to a moving body including a vehicle such as an automobile or a train that transports people or cargo. The present invention relates to a moving object surroundings monitoring device for monitoring the surroundings, a moving object on which the moving object is mounted, and an image conversion method.

近年における交通事故の増大は、大きな社会問題となっている。特に、四つ角や三叉路などの交差点において、人の飛び出しによる事故や車両同士の出会い頭の衝突事故、車両同士の追突事故などが多発している。このような交差点での交通事故の原因は、車両の運転者および歩行者共に、安全を確認するために必要な視界に比べて実際に得られる視界が狭く、その結果、十分に注意を払っていないと危険の認識が遅れることに起因すると考えられる。このため、車両自体の改良、運転者の注意および道路環境の整備などがさらに強く望まれている。   The increase in traffic accidents in recent years has become a major social problem. In particular, at intersections such as four corners and three-way intersections, accidents due to jumping out of people, collision accidents at encounters between vehicles, rear-end collisions between vehicles, etc. frequently occur. The cause of traffic accidents at such intersections is that both the driver and pedestrian of the vehicle actually have a narrower field of view than that required to confirm safety, and as a result, pay sufficient attention. Otherwise, it may be due to a delay in the perception of danger. For this reason, improvement of the vehicle itself, driver's attention and improvement of the road environment are strongly desired.

従来から、道路環境を整備するために、四つ角や三叉路などで視界が遮られているところにミラーが設置されているが、ミラーを設置するだけでは視界が狭く、また、設置されるミラーの数も未だ十分ではないため、安全に対して万全であるとは言えない。   Conventionally, in order to improve the road environment, mirrors have been installed where the field of view is obstructed by four corners or three-way intersections, but the field of view is narrow only by installing mirrors, and the number of mirrors installed However, it is not enough, so it cannot be said that it is safe.

また、車両の安全、特に後方確認などを目的として、監視カメラを車両後部に設置し、ケーブルを通じて運転席の横または前方パネル部に設置されたモニタに監視カメラの画像を表示するシステムが、バスなどの大型車両や一部の乗用車において普及している。   In addition, for the purpose of vehicle safety, in particular for rearward confirmation, a monitoring camera is installed at the rear of the vehicle, and a system that displays the image of the monitoring camera on a monitor installed on the side of the driver's seat or on the front panel through a cable is a bus. It is popular in large vehicles and some passenger cars.

しかしながら、この場合でも、車両の側方の安全確認は運転者の視覚によるところが大きく、四つ角や三叉路などで視界が遮られているところでは危険に対する認識が遅れることが多い。また、この種のカメラは一般に視覚が狭く、一方向に対する障害物の有無や他の物体と衝突する危険性については確認することができるが、広範囲の障害物の有無や他の物体と衝突する危険性について確認するためには、カメラの角度を変化させるなどの操作が必要である。   However, even in this case, the safety confirmation on the side of the vehicle is largely based on the driver's vision, and the recognition of the danger is often delayed where the field of view is obstructed by four corners or a three-way road. In addition, this type of camera is generally narrow in vision and can confirm the presence of obstacles in one direction and the danger of colliding with other objects, but it can collide with a wide range of obstacles and other objects. In order to confirm the danger, an operation such as changing the angle of the camera is necessary.

このように、従来の車両周囲監視装置においては、一方向を監視することのみが重視されており、車両の周囲360度を確認にするためには、複数台(前後左右計4台以上)の監視カメラが必要となっていた。   As described above, in the conventional vehicle periphery monitoring device, importance is attached only to monitoring one direction, and in order to confirm 360 degrees around the vehicle, a plurality of units (four or more in total, front and rear, right and left) A surveillance camera was needed.

そこで、例えば特許文献1などには、車両の周囲360度の視野領域に対する映像が得られ、その映像に対して中心射影変換が可能な光学系と、その光学系を通して得られる光学像を第一画像データに変換する撮像手段とを含む全方位視覚センサを用いて、視野方向が90度下向き(鉛直軸方向下向き)である画像(俯瞰画像または鳥瞰図)を表示させる方法が提案されている。
特開2002−218451号公報
Therefore, for example, in Patent Document 1, an image is obtained for a 360-degree field of view around the vehicle, and an optical system capable of central projective transformation on the image and an optical image obtained through the optical system are first described. There has been proposed a method of displaying an image (overhead image or bird's eye view) whose visual field direction is 90 degrees downward (vertical axis direction downward) using an omnidirectional visual sensor including an imaging means for converting to image data.
JP 2002-218451 A

前述したように、車両を利用する際には、安全を確認して対応しなければならない状況がしばしばある。例えば、車両出発時の周囲の確認、車両左折時または右折時、駐車場や車庫からの入出庫時などには、車両の前方だけではなく、車両の左右および後方の確認が必要となる。車両の運転者がこれらの確認を行うことは非常に重要であるが、車両の構造上、運転席からの死角部分に対しては安全性の確認が困難であり、運転者にとって多大な負担になる。   As described above, when using a vehicle, there are often situations in which it is necessary to confirm and respond to safety. For example, it is necessary to check not only the front of the vehicle but also the left and right and the rear of the vehicle when checking the surroundings at the time of departure of the vehicle, when turning left or right, or when entering or leaving the parking lot or garage. It is very important for the driver of the vehicle to check these, but because of the structure of the vehicle, it is difficult to check the safety of the blind spot from the driver's seat, which is a heavy burden on the driver. Become.

また、従来の車両周囲監視装置を用いて車両の周囲360度を確認するためには、複数台のカメラが必要となる。これらのカメラを使用する場合には、車両の運転者は、そのときの状況に応じて、モニタに表示される画像を出力させるカメラを切り替えるか、またはカメラの向きを変化させて車両の安全性を確認する必要がある。このような操作は、車両の運転者に大きな負担をかけることになってしまう。   Moreover, in order to confirm 360 degrees around the vehicle using a conventional vehicle surrounding monitoring apparatus, a plurality of cameras are required. When using these cameras, the driver of the vehicle switches the camera that outputs the image displayed on the monitor or changes the direction of the camera according to the situation at that time, and the safety of the vehicle. It is necessary to confirm. Such an operation places a heavy burden on the driver of the vehicle.

また、特許文献1に開示されている周囲監視装置によれば、1台のカメラで周囲360度の画像が得られるが、モニタに表示される画像は、周囲の物体を投影面(例えば路面)に射影(投影)させた俯瞰画像または鳥瞰図である。このため、視野方向中心から離れた場所の画像は大きく歪んだ画像となり、車両の運転者に大きな違和感を与えることになってしまう。   In addition, according to the surrounding monitoring device disclosed in Patent Document 1, an image of 360 degrees around can be obtained with one camera, but the image displayed on the monitor is a projection surface (for example, a road surface) around a surrounding object. It is a bird's-eye view image or a bird's-eye view projected onto (projected). For this reason, the image of the place away from the center of the visual field direction becomes a largely distorted image, which gives a great sense of discomfort to the driver of the vehicle.

本発明は、上記従来の問題を解決するもので、運転者にとって違和感の少ない画像が得られ、移動体の周囲の状況を容易に確認できて運転者の負担を減らすことができ、安全性を高めることができる移動体周囲監視装置、これが搭載された移動体およびその画像変換方法を提供することを目的とする。   The present invention solves the above-mentioned conventional problems, and an image with a little uncomfortable feeling for the driver can be obtained, the situation around the moving body can be easily confirmed, the burden on the driver can be reduced, and safety is improved. It is an object of the present invention to provide a moving object surrounding monitoring device that can be enhanced, a moving object on which the moving object is mounted, and an image conversion method thereof.

本発明の移動体周囲監視装置は、周囲360度の視野領域の映像が得られ、その映像に対して中心射影変換が可能な光学系と、該光学系を通して得られる光学像を第1画像データに変換する撮像手段とを含む全方位視覚センサと、該第1画像データを少なくともパノラマ画像データまたは透視画像データに変換する画像処理手段と、該画像処理手段で得られた第2画像データに対応する画像を表示する表示手段とを備え、前記画像処理手段は、視野中心付近では移動体の少なくとも一部を含むその配置面を俯瞰する画像データに変換し、かつ視野中心から一定距離離れた該視野中心付近以外の視野部分では該移動体の配置面から上方を該移動体側から横方向に見た場合の画像データに変換する画像変換手段を有し、そのことにより上記目的が達成される。   The moving object surroundings monitoring apparatus according to the present invention provides an optical system capable of obtaining a 360-degree visual field region and capable of central projective transformation on the image, and an optical image obtained through the optical system as first image data. Corresponding to the second image data obtained by the image processing means, the image processing means for converting the first image data into at least panoramic image data or fluoroscopic image data, Display means for displaying an image to be displayed, wherein the image processing means converts the arrangement surface including at least a part of the moving body into an image data overlooking the vicinity of the center of the field of view, and is separated from the center of the field of view by a certain distance. The visual field portion other than the vicinity of the visual field center has image conversion means for converting image data when viewed from the side of the moving body in the lateral direction from the moving body side. It is made.

また、好ましくは、本発明の移動体周囲監視装置における画像変換手段は、前記視野中心付近以外の視野部分において、前記射影変換中心を含み移動体の配置面に平行な平面内に、該射影変換中心から一定距離離れた位置に円筒軸および球中心点の少なくともいずれかを有し、該射影変換中心と移動体の配置面との距離を半径とする一部円筒面および一部球面の少なくともいずれかに射影した画像データに変換する。   Preferably, the image conversion means in the moving object surroundings monitoring device of the present invention is such that the projective conversion is performed in a visual field portion other than the vicinity of the visual field center and in a plane including the projective conversion center and parallel to the moving object arrangement surface. At least one of a partial cylindrical surface and a partial spherical surface having at least one of a cylindrical axis and a spherical center point at a certain distance from the center and having a radius as the distance between the projective transformation center and the moving object placement surface Convert the image data to the projected image.

さらに、好ましくは、本発明の移動体周囲監視装置における画像変換手段は、前記視野中心付近以外の視野部分において、前記射影変換中心を含み移動体の配置面に平行な平面内に、該射影変換中心から反対方向にそれぞれ一定距離離れた各位置にそれぞれ円筒軸および球中心点の少なくともいずれかを有し、該射影変換中心と移動体の配置面との距離を半径とする各一部円筒面および各一部球面の少なくともいずれかの各面にそれぞれ射影した各画像データに変換する。   Further preferably, the image conversion means in the moving object surroundings monitoring device of the present invention is characterized in that the projective conversion is performed in a visual field portion other than the vicinity of the visual field center and in a plane including the projective conversion center and parallel to the arrangement surface of the moving object. Each partial cylindrical surface having at least one of a cylindrical axis and a spherical center point at each position separated by a certain distance in the opposite direction from the center, and having a radius between the projection transformation center and the arrangement surface of the moving body Each image data is projected onto at least one of the partial spherical surfaces.

さらに、好ましくは、本発明の移動体周囲監視装置において、射影面は、射影変換中心を含み移動体の配置面に平行な平面内で該射影変換中心からそれぞれ一定距離離れた位置に互いに直交する円筒軸をそれぞれ有する二つの前記一部円筒面を有し、前記一部球面は該二つの一部円筒面の円筒軸の交点を中心点とし、該一部円筒面の半径と同じ半径を有して該二つの一部円筒面を繋ぐ球面である。   Further preferably, in the moving object surroundings monitoring device of the present invention, the projecting surfaces are orthogonal to each other at positions spaced apart from the projecting conversion center within a plane that includes the projecting conversion center and is parallel to the arrangement surface of the moving object. Two partial cylindrical surfaces each having a cylindrical axis, and the partial spherical surface has a radius that is the same as the radius of the partial cylindrical surface, centered on the intersection of the cylindrical axes of the two partial cylindrical surfaces. And a spherical surface connecting the two partial cylindrical surfaces.

さらに、好ましくは、本発明の移動体周囲監視装置における全方位視覚センサにおいて、前記光学系は、軸を中心に双曲線を回転して得られる2葉双曲面の一方の曲面における凸状面に鏡面を形成した双曲面ミラーを有し、前記撮像手段は、その光軸が該双曲線の回転軸と一致し、該双曲面ミラーの二つの焦点のうちの他方の焦点位置にレンズの主点が配置されている。   Further preferably, in the omnidirectional visual sensor in the moving object surrounding monitoring apparatus of the present invention, the optical system is a mirror surface on a convex surface on one curved surface of a two-leaf hyperboloid obtained by rotating a hyperbola around an axis. The imaging means has an optical axis that coincides with the rotational axis of the hyperbola, and the principal point of the lens is disposed at the other focal position of the two focal points of the hyperboloid mirror Has been.

さらに、好ましくは、本発明の移動体周囲監視装置における全方位視覚センサにおいて、前記光学系は、軸を中心に双曲線を回転して得られる2葉双曲面の一方の曲面における凸状面に、光が透過可能な凸部先端部を除いて鏡面を形成した主双曲面ミラーと、他方の曲面における凸状面に鏡面を形成した副双曲面ミラーとを有し、前記撮像手段は、その光軸が該双曲線の回転軸と一致し、該副双曲面ミラーの二つの焦点のうちの他方の焦点位置にレンズの主点が配置されている。   Furthermore, preferably, in the omnidirectional visual sensor in the moving object surrounding monitoring apparatus of the present invention, the optical system has a convex surface on one curved surface of a two-leaf hyperboloid obtained by rotating a hyperbola around an axis, A main hyperboloid mirror having a mirror surface except for the tip of the convex portion through which light can be transmitted, and a sub-hyperboloid mirror having a mirror surface formed on the convex surface of the other curved surface, and the imaging means includes the light The axis coincides with the rotation axis of the hyperbola, and the principal point of the lens is disposed at the other focal position of the two focal points of the sub-hyperbolic mirror.

さらに、好ましくは、本発明の移動体周囲監視装置における表示手段が地図画面上に前記移動体の位置画像を表示する位置表示手段を兼ねており、該移動体の位置を検出する移動体位置検出手段と、該移動体位置検出手段で検出された位置情報に基づく該移動体の位置画像と前記移動体の周囲画像を切り替えるように該表示手段を制御可能とする表示制御手段とを更に有する。   Further preferably, the display unit in the mobile object periphery monitoring device of the present invention also serves as a position display unit that displays a position image of the mobile object on a map screen, and the mobile object position detection that detects the position of the mobile object And display control means for controlling the display means so as to switch between the position image of the moving body and the surrounding image of the moving body based on the position information detected by the moving body position detecting means.

本発明の移動体には、請求項1〜7のいずれかに記載の移動体周囲監視装置が搭載されており、そのことにより上記目的が達成される。   The moving body of the present invention is equipped with the moving body surroundings monitoring device according to any one of claims 1 to 7, thereby achieving the above object.

また、好ましくは、本発明の移動体における移動体周囲監視装置が前後のバンパーのうちの少なくとも一方のバンパー上に設置されている。   Preferably, the moving body surroundings monitoring device in the moving body of the present invention is installed on at least one of the front and rear bumpers.

さらに、好ましくは、本発明の移動体における移動体周囲監視装置は、前方バンパーの右側端部上および左側端部上のいずれか一方の位置に設置されていると共に、該設置位置に対する対角線上の後方バンパー上にも設置されている。   Further preferably, the moving body surroundings monitoring device in the moving body of the present invention is installed at one of the positions on the right end and the left end of the front bumper, and on the diagonal line with respect to the installation position. It is also installed on the rear bumper.

本発明の画像変換方法は、周囲360度の視野領域の映像に対して中心射影変換が可能な光学系を通して得られる光学像を撮像手段にて撮像して得られる第1画像データを、第2画像データとして、視野中心付近では移動体の少なくとも一部を含むその配置面を俯瞰する画像データに変換し、かつ視野中心から一定距離離れた該視野中心付近以外の視野部分では該移動体の配置面から上方を該移動体側から横方向に見た場合の画像データに変換し、そのことにより上記目的が達成される。   According to the image conversion method of the present invention, the first image data obtained by imaging an optical image obtained through an optical system capable of central projective transformation with respect to an image of a viewing field area of 360 degrees around the second image data is obtained. As image data, near the center of the visual field, the arrangement surface including at least a part of the moving body is converted into image data for bird's-eye view, and the moving body is disposed in the visual field portion other than the vicinity of the visual field center that is a fixed distance away from the visual field center. The image data is converted into image data when viewed from above the surface in the lateral direction from the movable body side, thereby achieving the above object.

また、好ましくは、本発明の画像変換方法において、前記第1画像データを前記第2画像データに変換する際に、前記視野中心付近以外の視野部分において、前記射影変換中心を含み移動体の配置面に平行な平面内に、該射影変換中心から一定距離離れた位置に円筒軸および球中心点の少なくともいずれかを有し、該射影変換中心と移動体の配置面との距離を半径とする一部円筒面および一部球面の少なくともいずれかに射影した該第2画像データに変換する。   Preferably, in the image conversion method of the present invention, when the first image data is converted to the second image data, the moving object including the projective conversion center is disposed in a visual field portion other than the vicinity of the visual field center. A plane parallel to the surface has at least one of a cylindrical axis and a spherical center point at a certain distance from the projective transformation center, and the distance between the projective transformation center and the plane on which the moving object is arranged is a radius. The image data is converted into the second image data projected onto at least one of a partial cylindrical surface and a partial spherical surface.

さらに、好ましくは、本発明の画像変換方法において、前記第1画像データを前記第2画像データに変換する際に、前記視野中心付近以外の視野部分において、前記射影変換中心を含み移動体の配置面に平行な平面内に、該射影変換中心からそれぞれ互いに反対方向に一定距離離れた各位置にそれぞれ円筒軸および球中心点の少なくともいずれかを有し、該射影変換中心と移動体の配置面との距離を半径とする各一部円筒面および各一部球面の少なくともいずれかの各面にそれぞれ射影した該各第2画像データにそれぞれ変換する。   Further preferably, in the image conversion method of the present invention, when the first image data is converted into the second image data, an arrangement of the moving body including the projective conversion center in a visual field portion other than the vicinity of the visual field center. A plane parallel to the surface and at least one of a cylindrical axis and a spherical center point at each position spaced apart from each other in a direction opposite to each other from the projective transformation center. Are respectively converted into the second image data projected onto at least one of each partial cylindrical surface and each partial spherical surface whose radius is the distance between the first image data and the second image data.

さらに、好ましくは、本発明の画像変換方法において、前記射影面は、射影変換中心を含み移動体の配置面に平行な平面内に、該射影変換中心からそれぞれ一定距離離れた位置に互いに直交する円筒軸を有する二つの前記一部円筒面を有し、前記一部球面は該二つの該一部円筒面の円筒軸の交点を中心とし、該一部円筒面の半径と同じ半径を有して該二つの一部円筒面を繋ぐ球面である。   Further preferably, in the image conversion method according to the present invention, the projection planes are orthogonal to each other at positions spaced apart from the projection conversion center by a certain distance in a plane including the projection conversion center and parallel to the arrangement plane of the moving object. Two partial cylindrical surfaces having a cylindrical axis, and the partial spherical surface is centered on an intersection of the cylindrical axes of the two partial cylindrical surfaces and has the same radius as the radius of the partial cylindrical surface. A spherical surface connecting the two partial cylindrical surfaces.

上記構成により、以下に、本発明の作用について説明する。   The operation of the present invention will be described below with the above configuration.

本発明の移動体周囲監視装置は、1台の全方位視覚センサによって、周囲360度の視野領域における映像が得られ、その映像に対して中心射影変換が可能な光学系を通して得られる光学像を撮像手段にて第1画像データに変換する。その第1画像データを画像処理手段によってパノラマ画像データや透視画像データ(第2画像データ)に変換して、表示手段によって第2画像データに対応する画像を表示する。なお、この表示手段に表示される画像は、表示サイズや表示方向などを表示制御手段によって制御することができる。   The moving object surroundings monitoring apparatus of the present invention obtains an optical image obtained through an optical system in which an image in a 360-degree field of view is obtained by one omnidirectional visual sensor, and center projection conversion can be performed on the image. The first image data is converted by the imaging means. The first image data is converted into panoramic image data or fluoroscopic image data (second image data) by the image processing means, and an image corresponding to the second image data is displayed by the display means. Note that the display size and the display direction of the image displayed on the display unit can be controlled by the display control unit.

この画像処理手段は、視野中心付近については移動体の配置面(例えば路面など)を俯瞰するような画像データに変換可能で、視野中心から一定距離離れた部分については、横から見たような画像データに変換可能な画像変換手段を備えている。   This image processing means can convert image data that overlooks the arrangement surface (for example, road surface) of the moving object in the vicinity of the center of the field of view, and a part that is a fixed distance away from the center of the field of view is viewed from the side. Image conversion means that can convert image data is provided.

画像変換手段は、例えば視野中心から一定距離離れた部分については、射影変換中心を通って移動体の配置面に平行な平面内で射影変換中心から一定距離離れた位置に軸を有し、射影変換中心と移動体の配置面との距離を半径とする一部円筒面または一部球面に射影した画像データに変換可能である。   The image conversion means, for example, for a portion that is a certain distance away from the center of the field of view, has an axis at a position that is a certain distance away from the projective transformation center in a plane that passes through the projective transformation center and is parallel to the plane of placement of the moving object. Conversion to image data projected onto a partial cylindrical surface or partial spherical surface having a radius of the distance between the conversion center and the arrangement surface of the moving body is possible.

または、画像変換手段は、視野中心から一定距離離れた部分については射影変換中心を通って移動体の配置面に平行な平面内で射影変換中心からそれぞれ一定距離離れた位置に互いに直交する軸を有し、射影変換中心と移動体の配置面との距離を半径とする二つの一部円筒面または二つの一部円筒面の軸の交点を中心とし、一部円筒面の半径と同じ半径を有して二つの一部円筒面を繋ぐ一部球面に射影した画像データに変換可能である。   Alternatively, the image conversion means, for a portion that is a certain distance from the center of the visual field, passes axes that are orthogonal to each other at a position that is a certain distance away from the projection transformation center in a plane that passes through the projection transformation center and is parallel to the placement surface of the moving object. With the center of the intersection of the axes of the two partial cylindrical surfaces or the two partial cylindrical surfaces whose radius is the distance between the projective transformation center and the placement surface of the moving object, and the same radius as the radius of the partial cylindrical surface It can be converted into image data projected onto a partial spherical surface connecting two partial cylindrical surfaces.

これにより、視野中心付近は鳥瞰図的な俯瞰画像が得られ、視野中心から所定距離だけ離れた視野部分では俯瞰画像ではなく、車両などの移動体側から横から見たような画像が得られるため、移動体の運転者にとって違和感の少ない画像が得られる。   As a result, a bird's-eye-view bird's-eye view image is obtained near the center of the field of view, and an image as seen from the side from the side of a moving object such as a vehicle is obtained in the field of view that is a predetermined distance away from the center of the field of view. An image with little discomfort for the driver of the moving body can be obtained.

さらに、地図上の移動体の位置を検出するGPSなどの位置検出手段を設けて、表示制御手段によって、表示手段に表示される移動体の周囲画像とその位置表示とを切り替え制御することもできる。   Further, a position detection means such as GPS for detecting the position of the moving body on the map can be provided, and the display control means can switch and control the surrounding image of the moving body displayed on the display means and its position display. .

以上により、本発明によれば、例えば全方位視覚センサを車両の前後部(例えば自動車の前後バンパー上やコーナ部など)に設置して、運転席に設けられた表示手段によって死角となる部分を容易に確認することができるため、出発時における周囲確認時、左折時や右折時、駐車場や車庫からの入出庫時、左右後方確認時などにおいて、安全確認をより確実に行うことができる。   As described above, according to the present invention, for example, an omnidirectional visual sensor is installed in the front and rear part of a vehicle (for example, on a front and rear bumper of a car or a corner part), and a portion that becomes a blind spot by a display means provided in a driver's seat is Since it can be easily confirmed, safety confirmation can be performed more reliably when checking surroundings at the time of departure, when turning left or right, when entering or leaving a parking lot or a garage, or when checking left and right rear.

従来の車両監視装置のように運転者が表示手段に表示される映像を出力させる複数のカメラを切り替えたり、カメラの向きを切り替えたりしなくても、表示制御手段によって任意の表示画像や表示方向、画像サイズを切り替えて表示させることができるため、後退時に表示を切り替えることなどにより安全確認を容易に行って接触事故などを未然に防止することができる。   Even if the driver does not switch a plurality of cameras that output video displayed on the display means or switches the direction of the camera as in the conventional vehicle monitoring device, the display control means can display any display image or display direction. Since the image size can be switched and displayed, it is possible to easily check the safety by switching the display at the time of retreating to prevent a contact accident or the like.

さらに、駐車場や車庫での入出庫時や幅寄せ時などに、視野中心付近は鳥瞰図的な俯瞰画像が得られ、視野中心から離れた部分では俯瞰画像ではなく、移動体の横から見たような画像が得られるため、車両などの移動体の運転者にとって、より違和感の少ない画像によって、安全確認を容易に行って接触事故などを未然に防ぐことができる。   In addition, a bird's-eye-view bird's-eye view image is obtained near the center of the field of view when entering and leaving a parking lot or garage, and when looking at the width. Since such an image is obtained, a driver of a moving body such as a vehicle can easily make a safety check and prevent a contact accident or the like with an image with less discomfort.

以下に、本発明の移動体周囲監視装置を搭載した移動体の実施形態1,2を自動車に適用した場合について、図面を参照しながら説明する。
(実施形態1)
図1(a)は、本発明の移動体周囲監視装置を搭載した自動車の実施形態1の上面図、図1(b)は、その側面図である。
Hereinafter, a case where the first and second embodiments of the moving body equipped with the moving body surrounding monitoring apparatus of the present invention are applied to an automobile will be described with reference to the drawings.
(Embodiment 1)
FIG. 1 (a) is a top view of a first embodiment of an automobile equipped with the moving body surroundings monitoring device of the present invention, and FIG. 1 (b) is a side view thereof.

図1に示すように、自動車(車両)1は、前方のフロントバンパー2および後方のリアバンパー3の上側中央に全方位視覚センサ11がそれぞれ設置されている。車両1の前方エンジン室内または後方貨物室内などには、後述する画像処理手段12が設けられている。車両1の運転席には、例えば前方パネル内またはパネル横などに表示手段13および表示制御手段14が設けられている。   As shown in FIG. 1, an automobile (vehicle) 1 is provided with an omnidirectional visual sensor 11 at the upper center of a front front bumper 2 and a rear rear bumper 3. An image processing means 12 to be described later is provided in the front engine compartment or the rear cargo compartment of the vehicle 1. In the driver's seat of the vehicle 1, for example, a display unit 13 and a display control unit 14 are provided in the front panel or on the side of the panel.

全方位視覚センサ11はそれぞれ、それを中心として周囲360度の視野領域における映像が得られるが、例えばフロントバンパー2上に設置されている全方位視覚センサ11は、後方視野領域において略水平方向180度の視野領域が自車両の画像により死角となり、有効な視野領域は前方180度である。また、リアバンパー3上に設置されている全方位視覚センサ11は前方視野領域において略水平方向180度の視野領域が自車両の画像により死角となり、有効な視野領域は後方180度である。   Each of the omnidirectional visual sensors 11 can obtain an image in a visual field region of 360 degrees around the center. For example, the omnidirectional visual sensor 11 installed on the front bumper 2 has a substantially horizontal direction of 180 degrees in the rear visual field region. The visual field area becomes a blind spot by the image of the host vehicle, and the effective visual field area is 180 degrees forward. Further, in the omnidirectional visual sensor 11 installed on the rear bumper 3, a visual field area of approximately 180 degrees in the horizontal direction in the front visual field area becomes a blind spot by an image of the own vehicle, and an effective visual field area is 180 degrees in the rear.

図2は、本発明の移動体周囲監視装置の実施形態1の概略構成を示すブロック図である。   FIG. 2 is a block diagram showing a schematic configuration of Embodiment 1 of the moving object surroundings monitoring apparatus of the present invention.

図2に示すように、移動体周囲監視装置10は、中心射影変換が可能な光学系11aおよびビデオ撮像手段11bとを含む全方位視覚センサ11と、画像変換手段12aおよび出力バッファメモリ12bとを有し、撮像手段12bで得られた第1画像データをパノラマ画像や透視画像等に変換する画像処理手段12と、画像変換手段12aから出力される第2画像データ(移動体の周囲画像)13aおよび、車両位置検出手段9から出力される画像データ(移動体の位置画像)13bとが切り替えて表示可能とする表示手段13と、自動車の周囲画像についてその表示方向、画像サイズなど表示画像を制御すると共に、自動車の周囲画像とその位置画像とを、制御信号14aによって切り替え制御する表示制御手段14と、画像処理手段12からの出力に応じて周囲に障害物がある場合などに警報を発生する警報発生手段15とを有している。なお、車両位置検出手段9はここでは設けているが、設けられていなくてもよい。   As shown in FIG. 2, the moving object surroundings monitoring apparatus 10 includes an omnidirectional visual sensor 11 including an optical system 11a capable of central projective conversion and a video imaging unit 11b, an image converting unit 12a, and an output buffer memory 12b. Image processing means 12 for converting the first image data obtained by the imaging means 12b into a panoramic image or a fluoroscopic image, and the second image data (a surrounding image of the moving body) 13a output from the image conversion means 12a. In addition, the display means 13 that can switch and display the image data (position image of the moving body) 13b output from the vehicle position detection means 9 and the display image such as the display direction and the image size of the surrounding image of the automobile are controlled. In addition, the display control means 14 for switching and controlling the surrounding image of the vehicle and its position image by the control signal 14a, and the image processing means 12 And a warning generating means 15 for generating an alarm in a case where there is an obstacle around in response to the output of al. In addition, although the vehicle position detection means 9 is provided here, it does not need to be provided.

以下に、この移動体周囲監視装置10の各部分について詳細に説明する。   Below, each part of this moving body surroundings monitoring apparatus 10 is demonstrated in detail.

まず、光学系11aと撮像手段11bとを含む全方位視覚センサ11について説明する。   First, the omnidirectional visual sensor 11 including the optical system 11a and the imaging unit 11b will be described.

図3は、図2の移動体周囲監視装置10の光学系11aの要部構成例を示す斜視図であり、周囲360度の視野領域の映像が得られ、その映像に対して中心射影変換が可能な光学系11aの一例を示している。   FIG. 3 is a perspective view showing a configuration example of a main part of the optical system 11a of the moving object surrounding monitoring apparatus 10 of FIG. 2, and an image of a 360 ° field of view area is obtained, and central projection conversion is performed on the image. An example of a possible optical system 11a is shown.

図3に示すように、光学系11aは、双曲面ミラー111aを利用しており、ビデオ撮像手段11bの撮像レンズの第1主点が双曲面ミラー111aの他方の焦点位置(焦点2)に配置されることにより、中心射影変換が可能になっている。この光学系11aの詳細は特開平6−295333号公報に説明されているので、ここでは特徴点についてのみ説明する。   As shown in FIG. 3, the optical system 11a uses a hyperboloidal mirror 111a, and the first principal point of the imaging lens of the video imaging means 11b is arranged at the other focal position (focal point 2) of the hyperboloidal mirror 111a. By doing so, central projective transformation is possible. Since details of the optical system 11a are described in Japanese Patent Laid-Open No. 6-295333, only feature points will be described here.

図3では、双曲面ミラー111aは、双曲線を軸J1(Z軸)を中心に回転して得られる曲面(2葉双曲面)の一方(Z>0の領域)の曲面における凸状面に鏡面を形成したものである。この2葉双曲面は、
(X+Y)/a−Z/b=−1
=a+b ・・・(1)
によって表される。なお、上記式(1)において、aおよびbは双曲面の形状を定義する定数であり、cは焦点の位置を定義する定数である。以下、これらの定数a、bおよびcを双曲面ミラーのミラー定数と称する。
In FIG. 3, the hyperboloid mirror 111a has a mirror surface on the convex surface of one of the curved surfaces (two-leaf hyperboloid) obtained by rotating the hyperbola around the axis J1 (Z axis) (Z> 0 region). Is formed. This two-leaf hyperboloid is
(X 2 + Y 2 ) / a 2 −Z 2 / b 2 = −1
c 2 = a 2 + b 2 (1)
Represented by In the above formula (1), a and b are constants that define the shape of the hyperboloid, and c is a constant that defines the position of the focal point. Hereinafter, these constants a, b, and c are referred to as mirror constants of a hyperboloid mirror.

この双曲面ミラー111aは、二つの焦点(焦点1と焦点2)を有し、外部から一方の焦点1に向かう光は双曲面ミラー111aで反射され、全て他方の焦点2に向かうという特徴を有する。したがって、双曲面ミラー21の回転軸J1とビデオ撮像手段11bの光軸J2とを一致させると共に、他方の焦点(図3では焦点2)位置にビデオ撮像手段11bのレンズ主点(第1主点)を配置させることにより、このビデオ撮像手段11bで撮影される光学像は、視野方向によって視点位置が変わらずに、一方の焦点(焦点1)を視点中心として周囲領域の映像を画像データに変換可能(中心射影変換が可能)であるという特徴を有する。   This hyperboloidal mirror 111a has two focal points (focal point 1 and focal point 2), and the light directed from the outside toward one focal point 1 is reflected by the hyperboloidal mirror 111a, and all is directed to the other focal point 2. . Therefore, the rotation axis J1 of the hyperboloid mirror 21 and the optical axis J2 of the video imaging means 11b are made to coincide with each other, and the lens principal point (first principal point) of the video imaging means 11b is located at the other focal point (focal point 2 in FIG. 3). ), The image of the surrounding area is converted into image data with one focal point (focal point 1) as the center of the viewpoint, without changing the viewpoint position depending on the viewing direction. It has a feature that it is possible (central projective transformation is possible).

ビデオ撮像手段11bは、例えばビデオカメラなどであって、双曲面ミラー111aを介して得られる光学像がCCDやCMOSなどの固体撮像素子を利用して画像データ(第1画像データ)に変換される。変換された画像データは、画像処理手段12に送られる。   The video imaging means 11b is, for example, a video camera, and an optical image obtained through the hyperboloid mirror 111a is converted into image data (first image data) using a solid-state imaging device such as a CCD or a CMOS. . The converted image data is sent to the image processing means 12.

次に、画像処理手段12について具体的に説明する。   Next, the image processing means 12 will be specifically described.

図4は、図2の画像処理手段12の要部構成例を示すブロック図である。   FIG. 4 is a block diagram showing a configuration example of a main part of the image processing means 12 in FIG.

図4に示すように、画像処理手段12は、A/D変換器121a、入力バッファメモリ122a、CPU(制御部;中央演算処理装置)123a、ルックアップテーブル(LUT)124aおよび画像変換ロジック125aを有する画像変換手段12aと、出力バッファメモリ12bとがバスライン12cによって接続されている。   As shown in FIG. 4, the image processing means 12 includes an A / D converter 121a, an input buffer memory 122a, a CPU (control unit; central processing unit) 123a, a look-up table (LUT) 124a, and image conversion logic 125a. The image conversion unit 12a having the output buffer memory 12b is connected to the bus line 12c.

ビデオ撮像手段11bにて撮像された画像(第1画像データ)は、アナログ信号である場合にはA/D変換器121aによりデジタル信号に変換された後に、入力バッファメモリ122aに入力される。また、第1画像データがデジタル信号である場合には直接入力バッファメモリ122aに入力される。   In the case of an analog signal, the image captured by the video imaging unit 11b (first image data) is converted into a digital signal by the A / D converter 121a and then input to the input buffer memory 122a. If the first image data is a digital signal, it is directly input to the input buffer memory 122a.

その後、入力バッファメモリ122aからの出力が、画像変換ロジック125aによってパノラマ画像データや透視画像データなどの第2画像データに変換されたり、その他の画像処理が施されて、出力バッファメモリ12bに入力される。画像変換ロジック125aでは、画像変換や画像処理時に必要に応じてLUT124aのデータが参照される。この画像変換手段12aにおいて、各部分の制御は、所謂RISC方式のCPU123aによって行うことができる。   Thereafter, the output from the input buffer memory 122a is converted into second image data such as panoramic image data or fluoroscopic image data by the image conversion logic 125a, or other image processing is performed and input to the output buffer memory 12b. The In the image conversion logic 125a, data in the LUT 124a is referred to as necessary during image conversion and image processing. In this image conversion means 12a, each part can be controlled by a so-called RISC CPU 123a.

以下に、図4の画像変換ロジック125aによる画像データの変換処理について具体的に説明する。   The image data conversion process by the image conversion logic 125a of FIG. 4 will be specifically described below.

まず、撮像手段11bでの撮像により得られる円形入力画像111から360゜パノラマ画像113への変換について、図5を用いて説明する。   First, conversion from the circular input image 111 obtained by imaging by the imaging unit 11b to the 360 ° panoramic image 113 will be described with reference to FIG.

図5に示すように、ドーナツ状画像112は、円形入力画像111をドーナツ状に切り出して切り開く途中の状態の画像であり、ドーナツ状画像112を引伸ばして直交座標に変換した後の画像がパノラマ画像113である。   As shown in FIG. 5, the donut-shaped image 112 is an image in the middle of cutting out and cutting out the circular input image 111 into a donut shape, and the image after the donut-shaped image 112 is stretched and converted into orthogonal coordinates is a panorama. This is an image 113.

円形入力画像111をその中心を原点とした極座標で表わす場合、円形入力画像111内のある点(画素)Pの座標は(r,θ)で表わされる。この円形入力画像111をドーナツ状に切り出してPO(ro,θo)を基準に切り開いて引伸ばし、これを四角い長方形のパノラマ画像113に変換する座標変換式は、パノラマ画像113上の点の座標をP(x,y)とすると、
x=θ−θo
y=r−ro
で表される。円形入力画像111上の点の座標をP(X,Y)とし、その中心の座標をO(Xo,Yo)とすると、
X=r×cosθ+Xo
Y=r×sinθ+Yo
であるので、
X=(y+ro)cos(x+θo)+Xo
Y=(y+ro)sin(x+θo)+Yo
で表わされる。
When the circular input image 111 is represented by polar coordinates with the center as the origin, the coordinates of a certain point (pixel) P in the circular input image 111 are represented by (r, θ). A coordinate conversion formula for cutting this circular input image 111 into a donut shape, opening and expanding it with reference to PO (ro, θo), and converting it into a rectangular rectangular panoramic image 113 is the coordinates of a point on the panoramic image 113. If P (x, y),
x = θ−θo
y = r-ro
It is represented by If the coordinates of a point on the circular input image 111 are P (X, Y) and the coordinates of the center are O (Xo, Yo),
X = r × cos θ + Xo
Y = r × sin θ + Yo
So
X = (y + ro) cos (x + θo) + Xo
Y = (y + ro) sin (x + θo) + Yo
It is represented by

次に、透視変換画像データにおける透視変換の座標位置関係について、図6を用いて説明する。   Next, the coordinate position relationship of perspective transformation in the perspective transformation image data will be described with reference to FIG.

透視変換による座標変換については、空間上の点が入力画像面上のどの位置に対応するかを計算し、その位置の画像情報を、透視変換後の周囲の映像上で対応する座標位置に割り当てるようにする。   For coordinate transformation by perspective transformation, it calculates which position on the input image plane the point in space corresponds to, and assigns the image information at that position to the corresponding coordinate position on the surrounding video after perspective transformation Like that.

図6に示すように、空間上のある点の座標をP(tx,ty,tz)とし、ビデオ撮像手段11bの受光部に形成される円形入力画像111上において対応する点の座標をR(r,θ)とし、ビデオ撮像手段11bのレンズの焦点距離をFとし、さらに、双曲面ミラー定数をa、bおよびcとすると、
r=F×tan((π/2)−β) ・・・(1)
であり、但し、
β=arctan(((b+c)×sinα−2bc)/(b−c)×cosα)
α=arctan(tz/sqrt(tx+ty))
θ=arctan(ty/tx) ・・・(2)
となる。上記式(2)を整理すると、
r=F×(((b−c)×sqrt(tx+ty))
/((b+c)×tz−2×b×c
×sqrt(tx+ty+tz))) ・・・(2’)
となる。さらに、画像上の点の座標を直行座標に変換してR(X,Y)と表すと、
X=rcosθ ・・・(3)
Y=rsinθ ・・・(4)
より、
X=F×(((b−c)×tx/((b+c)×tz−2×b×c
×sqrt(tx+ty+tz))) ・・・(5)
Y=F×(((b−c)×ty/((b+c)×tz−2×b×c
×sqrt(tx+ty+tz))) ・・・(6)
となる。
As shown in FIG. 6, the coordinate of a certain point in the space is P (tx, ty, tz), and the coordinate of the corresponding point on the circular input image 111 formed on the light receiving portion of the video imaging means 11b is R ( r, θ), the focal length of the lens of the video imaging means 11b is F, and the hyperboloid mirror constants are a, b and c.
r = F × tan ((π / 2) −β) (1)
However,
β = arctan (((b 2 + c 2 ) × sin α−2bc) / (b 2 −c 2 ) × cos α)
α = arctan (tz / sqrt (tx 2 + ty 2 ))
θ = arctan (ty / tx) (2)
It becomes. If the above formula (2) is rearranged,
r = F × (((b 2 −c 2 ) × sqrt (tx 2 + ty 2 ))
/ ((B 2 + c 2 ) × tz−2 × b × c
× sqrt (tx 2 + ty 2 + tz 2 ))) (2 ')
It becomes. Furthermore, when the coordinates of the points on the image are converted into orthogonal coordinates and expressed as R (X, Y),
X = r cos θ (3)
Y = rsinθ (4)
Than,
X = F × (((b 2 −c 2 ) × tx / ((b 2 + c 2 ) × tz−2 × b × c
× sqrt (tx 2 + ty 2 + tz 2 ))) (5)
Y = F × (((b 2 −c 2 ) × ty / ((b 2 + c 2 ) × tz−2 × b × c
× sqrt (tx 2 + ty 2 + tz 2 ))) (6)
It becomes.

なお、パノラマ画像113や透視画像の横回転移動(パン)や縦回転移動(チルト)動作、透視画像のズームイン、ズームアウト動作についても、特開2002−218451号公報の場合と同様に行うことが可能である。   Note that the panoramic image 113 and the perspective image can be horizontally rotated (panned) and vertically rotated (tilted), and the perspective image is zoomed in and zoomed out in the same manner as in JP-A-2002-218451. Is possible.

画像変換手段12aでは、視野中心付近については、移動体の配置面(自動車の場合には路面)を俯瞰するような鳥瞰図の画像データに変換される。例えばビデオ撮像手段11bの光軸J2が地面に対して鉛直方向上向きになるように車両1に取り付けられている場合には、縦回転移動によりα=−90度となるように透視画像の視野方向を選択すると、その透視画像は、車両1の周囲を真上から俯瞰するような画像(鳥瞰図)になる。   In the image conversion means 12a, the vicinity of the center of the visual field is converted into image data of a bird's eye view that looks down on the arrangement surface of the moving body (road surface in the case of an automobile). For example, when the video image pickup unit 11b is attached to the vehicle 1 so that the optical axis J2 of the video image pickup unit 11b is vertically upward with respect to the ground, the viewing direction of the fluoroscopic image is set to α = −90 degrees by vertical rotation movement. When is selected, the fluoroscopic image becomes an image (bird's eye view) in which the periphery of the vehicle 1 is viewed from directly above.

また、画像変換手段12aでは、視野中心から一定距離離れた視野中心付近以外の視野部分については、射影変換中心を通って移動体の配置面(自動車の場合には路面)に平行な平面内で射影変換中心(双曲面ミラー焦点1)から一定距離離れた位置に軸を有し、その射影変換中心と路面との距離を半径とする半円筒面または半球面を2分割した1/4円筒面または1/4球面(これを半円筒面部分または半球面部分;一部筒面部分または一部球面)に射影した画像データにそれぞれ変換される。或いは、射影変換中心を通って移動体の配置面(自動車の場合には路面)に平行な平面内でそれぞれ射影変換中心(双曲面ミラー焦点1)から一定距離離れた位置に互いに直交する軸を有し、その射影変換中心と路面との距離を半径とする二つの一部円筒面または二つの一部円筒面の軸の交点を中心とし、一部円筒面の半径と同じ半径を有して二つの一部円筒面を繋ぐ一部球面に射影した画像データに変換される。   Further, in the image conversion means 12a, the visual field portion other than the vicinity of the visual field center that is a fixed distance from the visual field center passes through the projective conversion center and is in a plane parallel to the arrangement surface of the moving body (road surface in the case of an automobile). A semi-cylindrical surface having an axis at a certain distance from the projective transformation center (hyperboloid mirror focal point 1) and a radius of the distance between the projective transformation center and the road surface, or a quarter cylindrical surface obtained by dividing the hemispherical surface into two. Alternatively, the image data is converted into image data projected onto a 1/4 spherical surface (a semi-cylindrical surface portion or a semi-spherical surface portion; a partial cylindrical surface portion or a partial spherical surface). Alternatively, the axes orthogonal to each other at a certain distance from the projective transformation center (hyperboloid mirror focal point 1) in a plane parallel to the arrangement plane of the moving body (road surface in the case of an automobile) through the projective transformation center. It has the same radius as the radius of the part of the cylindrical surface, centered on the intersection of the axes of the two part cylindrical surfaces or the two part cylindrical surfaces whose radius is the distance between the projective transformation center and the road surface. It is converted into image data projected onto a partial spherical surface connecting two partial cylindrical surfaces.

まず、上記一部円筒面に射影した画像データに変換する場合について、図7を用いて説明する。なお、ここでは、光学系11aの光軸J1(双曲面ミラー111aの回転軸)は路面(移動体の配置面)に鉛直上向き(Z軸方向)と仮定しているが、必ずしも鉛直上向きである必要はない。   First, the case of converting to image data projected onto the partial cylindrical surface will be described with reference to FIG. Here, it is assumed that the optical axis J1 of the optical system 11a (the rotation axis of the hyperboloidal mirror 111a) is vertically upward (Z-axis direction) with respect to the road surface (placement surface of the moving body), but is not necessarily vertically upward. There is no need.

ここでは、その一例として、上記射影変換中心(双曲面ミラー111aの焦点1)を通って路面に平行な平面内に軸Kを有し、その軸Kが射影変換中心(焦点1)からlだけ離れ、軸K上の中心から半径rの一部円筒面114(半円筒面部分114)を射影面として考える。射影変換中心(双曲面ミラー111aの焦点1)からの距離R、俯角α、円筒軸Kに垂直で射影変換中心からの距離lで光軸(Z軸)に平行な軸L周りの回転角θ、円筒軸K周りの回転角φの位置の点の座標P(tx、ty、tz)は、
tx=l+rcosφ ・・・(7)
ty=rtanθ ・・・(8)
tz=rsinφ ・・・(9)
によって表される。したがって、上記式(7)〜(9)を上記式(5)および(6)に代入することにより、入力画像面上の点の座標XおよびYは、
X=F×(b−c)×cosθ×(l+rcosφ)
/(r×(b+c)×cosθ×sinφ
−2×b×c×(cosθ×(l +2lcosφ)+r 1/2
・・・(10)
Y=F×(b−c)×rsinθ
/(r×(b+c)×cosθ×sinφ
−2×b×c×(cosθ(l +2lcosφ)+r 1/2
・・・(11)
によって表される。
Here, as an example, an axis K is provided in a plane parallel to the road surface through the projection transformation center (focal point 1 of the hyperboloid mirror 111a), and the axis K is l 0 from the projection transformation center (focal point 1). apart, considered from the center of the axis K part cylindrical surface 114 of radius r 0 (the semi-cylindrical surface portion 114) as the projection plane. Distance R from the projective transformation center (focal point of the hyperboloidal mirror 111a 1), the depression angle alpha, rotation angle about an axis parallel L to the optical axis (Z-axis) at a distance l 0 from the projective transformation centered perpendicular to the cylindrical axis K The coordinate P (tx, ty, tz) of the point at the position of θ and the rotation angle φ around the cylindrical axis K is
tx = l 0 + r 0 cos φ (7)
ty = r 0 tan θ (8)
tz = r 0 sinφ (9)
Represented by Therefore, by substituting the above equations (7) to (9) into the above equations (5) and (6), the coordinates X and Y of the points on the input image plane are
X = F × (b 2 −c 2 ) × cos θ × (l 0 + r 0 cos φ)
/ (R 0 × (b 2 + c 2 ) × cos θ × sin φ
−2 × b × c × (cos 2 θ × (l 0 2 + 2l 0 r 0 cos φ) + r 0 2 ) 1/2
... (10)
Y = F × (b 2 −c 2 ) × r 0 sin θ
/ (R 0 × (b 2 + c 2 ) × cos θ × sin φ
−2 × b × c × (cos 2 θ (l 0 2 + 2l 0 r 0 cos φ) + r 0 2 ) 1/2
(11)
Represented by

次に、上記二つの一部円筒面とそれらを繋ぐ一部球面に射影した画像データに変換する場合について、図8を用いて説明する。なお、ここでは光学系11aの光軸J1(双曲面ミラー111aの回転軸)は路面(移動体の配置面)に鉛直上向き(Z軸方向)と仮定しているが、必ずしも鉛直上向きである必要はない。   Next, the case of converting to image data projected on the two partial cylindrical surfaces and the partial spherical surface connecting them will be described with reference to FIG. Here, it is assumed that the optical axis J1 of the optical system 11a (the rotation axis of the hyperboloidal mirror 111a) is vertically upward (Z-axis direction) on the road surface (placement surface of the moving body). There is no.

ここでは、その一例として、上記射影変換中心(双曲面ミラー111aの焦点1)を通って路面に平行な平面内にそれぞれY軸に平行な軸50aおよびX軸に平行な軸50bを有し、それらの軸50a,50bが射影変換中心(焦点1)からそれぞれ一定値lおよび一定値mだけ離れた中心(交点N)から半径rの一部円筒面115a,115b(半円筒面部分115a,115b)が、ある1象限でそれらの一部円筒面115a,115bと同じ半径rを有する一部球面116で結合された射影面を考える。一部円筒面115a,115b上の点と画像面上の点との関係は、上記図7を用いて説明した式(10)および(11)と同様であるので、ここでは、一部球面116(半球面部分116)上の点と画像面上の点との関係について説明する。 Here, as an example, it has an axis 50a parallel to the Y axis and an axis 50b parallel to the X axis in a plane parallel to the road surface through the projective transformation center (focal point 1 of the hyperboloid mirror 111a), Partially cylindrical surfaces 115a and 115b (half-cylindrical surface portions) having a radius r 0 from the center (intersection N) whose axes 50a and 50b are separated from the projective transformation center (focal point 1) by a constant value l 0 and a constant value m 0 respectively. 115a, 115b) is a certain quadrant part of their cylindrical surface 115a, consider a projection surface which is coupled with a part spherical surface 116 having the same radius r 0 and 115b. Since the relationship between the points on the partial cylindrical surfaces 115a and 115b and the points on the image plane is the same as the expressions (10) and (11) described with reference to FIG. A relationship between a point on the (hemispherical portion 116) and a point on the image plane will be described.

一部円筒面115a,115bの軸K1,K2の交点Nの座標を(l,m,0)とし、この交点Nを支点として交点Nを通る光軸(Z軸)に平行な軸L周りの回転角をθ、軸K1,K2の張る平面からの回転角をφとすると、一部球面116上の点の座標P(tx、ty、tz)は、
tx=l+rcosφcosθ ・・・(12)
ty=m+rcosφsinθ ・・・(13)
tz=rsinφ ・・・(14)
によって表される。 従って、上記式(12)〜(14)を上記式(5)および(6)に代入することにより、入力画像面上の点の座標XおよびYは、
X=F×(b−c)×(l+rcosφcosθ)
/((b+c)×rsinφ
−2×b×c×(l +m +r
+2lcosφcosθ+2mcosφsinθ)1/2
・・・(15)
Y=F×(b−c)×(m+rcosφsinθ)
/((b+c)×rsinφ
−2×b×c×(l +m +r
+2lcosφcosθ+2mcosφssinθ)1/2
・・・(16)
によって表される。
The coordinates of the intersection N of the axes K1 and K2 of the partial cylindrical surfaces 115a and 115b are (l 0 , m 0 , 0), and the axis L parallel to the optical axis (Z axis) passing through the intersection N with the intersection N as a fulcrum. Assuming that the rotation angle around is θ and the rotation angle from the plane extending from the axes K1 and K2 is φ, the coordinates P (tx, ty, tz) of a point on the partial spherical surface 116 are:
tx = l 0 + r 0 cos φ cos θ (12)
ty = m 0 + r 0 cos φ sin θ (13)
tz = r 0 sinφ (14)
Represented by Therefore, by substituting the above equations (12) to (14) into the above equations (5) and (6), the coordinates X and Y of the points on the input image plane are
X = F × (b 2 −c 2 ) × (l 0 + r 0 cos φcos θ)
/ ((B 2 + c 2 ) × r 0 sinφ
−2 × b × c × (l 0 2 + m 0 2 + r 0 2
+ 2l 0 r 0 cos φ cos θ + 2 m 0 r 0 cos φ sin θ) 1/2 )
... (15)
Y = F × (b 2 −c 2 ) × (m 0 + r 0 cos φsin θ)
/ ((B 2 + c 2 ) × r 0 sinφ
−2 × b × c × (l 0 2 + m 0 2 + r 0 2
+ 2l 0 r 0 cosφcosθ + 2m 0 r 0 cosφssinθ) 1/2)
... (16)
Represented by

なお、上記各場合について、射影中心を通って路面に平行な平面よりも上方の射影面は、一部円筒面から伸びた平面を想定しており、この面上の点と画像面上の点との関係は、従来通りであるので、ここではその説明を省略する。   In each of the above cases, the projection surface above the plane parallel to the road surface through the projection center is assumed to be a plane extending from a part of the cylindrical surface, and a point on this surface and a point on the image surface Is the same as in the past, and the description thereof is omitted here.

なお、本実施形態1では、全方位視覚センサ11は、設置空間の底面(例えば車両に設置される場合は路面)に垂直に設置された場合について説明しているが、必ずしも底面に垂直に設置されるとは限らず、一方向に傾けて設置される場合についても、全方位視覚センサ11の光軸の傾きを考慮した式に変換することによって、俯瞰画像でありながら、水平視野に近い歪の少ない周囲画像を容易に得ることができる。   In the first embodiment, the omnidirectional visual sensor 11 is described as being installed perpendicular to the bottom surface of the installation space (for example, the road surface when installed in a vehicle), but is not necessarily installed perpendicular to the bottom surface. Even when the projector is installed tilted in one direction, by converting it into an equation that takes into account the tilt of the optical axis of the omnidirectional visual sensor 11, a distortion close to a horizontal visual field is obtained although it is an overhead image. It is possible to easily obtain a surrounding image with little.

次に、鳥瞰図として、従来技術のように、単に、透視画像画面の視野方向を−90°(鉛直下方)とした場合と、本実施形態1のように中心視野方向から離れた位置では所定の一部円筒面や一部球面に射影させた擬似鳥瞰図とについて、表示状態の違いを図9(a)および図9(b)に示している。   Next, as a bird's-eye view, as in the case of the prior art, a case where the viewing direction of the perspective image screen is simply −90 ° (vertically downward) and a position away from the central viewing direction as in the first embodiment are predetermined. FIG. 9A and FIG. 9B show the difference in display state between the pseudo bird's-eye view projected onto a partial cylindrical surface or a partial spherical surface.

単に、透視画像画面の視野方向を−90°(鉛直下方)とした場合には、図9(a)に示すように、視点から離れたところにある物体20は、その視野方向に大きく伸びたように表示される。このため、運転者(画面の観察者)にとっては、非常に違和感が大きな画像になる。   When the viewing direction of the fluoroscopic image screen is simply −90 ° (vertically below), as shown in FIG. 9A, the object 20 away from the viewpoint greatly extends in the viewing direction. Is displayed. For this reason, the driver (observer of the screen) has a very uncomfortable image.

一方、本実施形態1の擬似鳥瞰図の場合には、図9(b)に示すように、視点から離れたところにある物体20は、水平視野に近い形で表示される。このため、歪が少なく、違和感が少ない画像が得られる。   On the other hand, in the pseudo bird's-eye view of the first embodiment, as shown in FIG. 9B, the object 20 located away from the viewpoint is displayed in a form close to a horizontal visual field. For this reason, an image with less distortion and less discomfort can be obtained.

次に、表示手段13および表示制御手段14について詳細に説明する。   Next, the display means 13 and the display control means 14 will be described in detail.

表示手段13は、例えばブラウン管、LEDやELなどのモニタであって、画像処理手段12の出力バッファメモリ12bから出力される第2画像データ13aを受け取って画像を表示させたり、GPSなどの車両位置検出手段9で検出された自車両の位置を地図画面上に表示させたりする。このとき、マイクロコンピュータを含む表示制御手段14によって表示手段13に表示される画像(画像処理手段12から得られるパノラマ画像や透視変換画像、擬似鳥瞰図、車両位置検出手段9で検出された自車両の位置表示など)を切り替えて表示させたり、また、表示方向や画像のサイズなどを制御することができる。   The display means 13 is a monitor such as a cathode ray tube, LED, or EL, for example, and receives the second image data 13a output from the output buffer memory 12b of the image processing means 12 to display an image, or a vehicle position such as GPS. The position of the own vehicle detected by the detection means 9 is displayed on the map screen. At this time, an image displayed on the display unit 13 by the display control unit 14 including a microcomputer (a panoramic image or a perspective transformation image obtained from the image processing unit 12, a pseudo bird's-eye view, the vehicle position detection unit 9). (Position display, etc.) can be switched and displayed, and the display direction, image size, and the like can be controlled.

図10は、図2の表示手段13によって表示される表示画面の一例を示す図である。ここでは、全方位視覚センサ11は、車両1の前方または後方のバンパーまたはボンネット上中央位置に設置されているものとする。ここでの擬似鳥瞰図表示は、車両の左右一定距離以上の部分が水平視野に近い表示になるように設定されている。   FIG. 10 is a diagram showing an example of a display screen displayed by the display unit 13 of FIG. Here, it is assumed that the omnidirectional visual sensor 11 is installed at the front or rear bumper or bonnet center position of the vehicle 1. Here, the pseudo bird's-eye view display is set so that a portion of the vehicle at a certain distance from the left and right is closer to the horizontal field of view.

図10に示すように、表示手段13の表示画面131には、直下の透視画像表示部131aを説明するための説明表示部131A、デフォルトにおいて車両正面の透視画像を表示する透視画像表示部131a、直下の擬似鳥瞰図表示部133aを説明する説明表示部133A、デフォルトにおいて車両正面を表示する擬似鳥瞰図表示部133a、上下左右の方向キー135、画像の拡大キー136および画像の縮小キー137が表示されている。   As shown in FIG. 10, on the display screen 131 of the display means 13, an explanation display unit 131A for explaining the perspective image display unit 131a directly below, a perspective image display unit 131a for displaying a perspective image in front of the vehicle by default, An explanation display part 133A for explaining the pseudo bird's eye view display part 133a directly below, a pseudo bird's eye view display part 133a for displaying the front of the vehicle by default, an up / down / left / right direction key 135, an image enlargement key 136 and an image reduction key 137 are displayed. Yes.

説明表示部131Aおよび133Aはそれぞれ、その直下の画像表示部131a,133aのアクティブスイッチになっており、利用者が説明表示部131Aおよび133Aを操作することによって、その直下の画像表示部131a,133aのそれぞれの上下左右移動、拡大・縮小が可能になると共に、説明表示部131Aおよび133Aの表示色が変化して画像表示部131a,133aがアクティブ状態になっていることが示される。画像表示部131a,133aがアクティブ状態になっているときに、方向キー135、拡大キー136および縮小キー137を操作することによって、画像の上下左右移動、拡大・縮小などを行うことができる。   The explanation display sections 131A and 133A are active switches of the image display sections 131a and 133a immediately below the explanation display sections 131A and 133A, respectively, and when the user operates the explanation display sections 131A and 133A, the image display sections 131a and 133a immediately below the display sections 131A and 133A. The display colors of the explanation display portions 131A and 133A change to indicate that the image display portions 131a and 133a are in the active state. By operating the direction key 135, the enlargement key 136, and the reduction key 137 when the image display units 131a and 133a are in the active state, the image can be moved up and down, left and right, enlarged or reduced, and the like.

例えば、利用者が説明表示部131Aを操作すると、その信号が表示制御手段14に送られて、表示制御手段14によって説明表示部131Aの表示色がアクティブ状態を表す色に変更するか、または説明表示部131Aが点滅すれると共に、透視画像表示部131aがアクティブ状態となる。利用者が方向キー135、拡大キー136および縮小キー137を操作すると、その信号に応じて表示制御手段14から画像処理手段12の画像変換手段12aに信号が送られ、各キー操作に対応して変換された画像データが表示手段13に送られて、透視画像表示部131aに表示される。   For example, when the user operates the explanation display unit 131A, the signal is sent to the display control unit 14, and the display control unit 14 changes the display color of the explanation display unit 131A to a color representing an active state or the explanation. The display unit 131A blinks and the fluoroscopic image display unit 131a is activated. When the user operates the direction key 135, the enlargement key 136, and the reduction key 137, a signal is sent from the display control means 14 to the image conversion means 12a of the image processing means 12 according to the signal, and corresponding to each key operation. The converted image data is sent to the display means 13 and displayed on the fluoroscopic image display unit 131a.

擬似鳥瞰図表示部133aでは、図7〜図9を用いて説明したように、視野中心付近については、移動体の配置面(自動車の場合には路面)を俯瞰するような鳥瞰図が表示され、視野中心から一定距離離れた部分については、射影変換中心を通って移動体の配置面(自動車の場合には路面)に平行な平面内で射影変換中心(ミラー焦点1)から一定距離離れた位置に軸を有し、その射影変換中心(焦点1)と路面との距離を半径とする一部円筒面115a、115bまたは一部球面116に射影した画像が表示される。これにより、視点から離れたところにある物体が水平視野に近い形で表示され、歪が少なく、違和感が少ない画像が得られる。   As described with reference to FIGS. 7 to 9, the pseudo bird's-eye view display unit 133 a displays a bird's-eye view that overlooks the arrangement surface of the moving body (road surface in the case of an automobile) around the center of the field of view. For a part away from the center by a certain distance, it is located at a position away from the projective transformation center (mirror focus 1) within a plane that passes through the projective transformation center and is parallel to the plane of placement of the moving body (road surface in the case of an automobile). An image projected on the partial cylindrical surfaces 115a, 115b or the partial spherical surface 116 having an axis and having a radius between the projection transformation center (focal point 1) and the road surface is displayed. As a result, an object located away from the viewpoint is displayed in a form close to a horizontal field of view, and an image with less distortion and less discomfort can be obtained.

図11は、図2の表示手段13によって表示される表示画面の他の一例を示す図である。ここでは、全方位視覚センサ11は、車両1の前方または後方のバンパーまたはボンネット上コーナ位置に設置されているものとする。ここでの擬似鳥瞰図表示は、全方位視覚センサ11の周囲一定距離以上の部分(車両の左右いずれか、センサが取り付けられた側、および前方もしくは後方)が水平視野に近い表示になるように設定されている。   FIG. 11 is a diagram showing another example of the display screen displayed by the display means 13 of FIG. Here, it is assumed that the omnidirectional visual sensor 11 is installed at a bumper or bonnet corner position in front of or behind the vehicle 1. Here, the pseudo bird's-eye view display is set so that a portion (a left or right side of the vehicle, the side where the sensor is attached, and the front or rear) of the omnidirectional visual sensor 11 is close to a horizontal visual field. Has been.

図11に示すように、表示画面132には、直下の透視画像表示部132a〜132cを説明するための説明表示部132A〜132C、デフォルトにおいて車両左側の透視画像を表示する透視画像表示部132b、デフォルトにおいて車両正面の透視画像を表示する透視画像表示部132a、デフォルトにおいて車両右側の透視画像を表示する透視画像表示部132c、直下の擬似鳥瞰図表示部134を説明する説明表示部134A、デフォルトにおいて車両正面の透視画像を表示する擬似鳥瞰図表示部134a、上下左右の方向キー135、画像の拡大キー136および画像の縮小キー137が表示されている。   As shown in FIG. 11, on the display screen 132, explanation display units 132 </ b> A to 132 </ b> C for explaining the directly below fluoroscopic image display units 132 a to 132 c, a fluoroscopic image display unit 132 b that displays a fluoroscopic image on the left side of the vehicle by default, A fluoroscopic image display unit 132a that displays a fluoroscopic image of the front of the vehicle by default, a fluoroscopic image display unit 132c that displays a fluoroscopic image of the right side of the vehicle by default, an explanation display unit 134A that describes a pseudo bird's-eye view display unit 134 directly below, and a vehicle by default A pseudo bird's eye view display unit 134a for displaying a front perspective image, up / down / left / right direction keys 135, an image enlargement key 136, and an image reduction key 137 are displayed.

図10に示す表示画面131と同様に、図11に示す説明表示部132A〜132Cおよび134Aはそれぞれ、その直下の画像表示部132a〜132cおよび134aのアクティブスイッチになっており、利用者が説明表示部132A〜132Cおよび134Aを操作することによって、その直下の画像表示部132a〜132cおよび134aのそれぞれの上下左右移動、拡大・縮小が可能になると共に、説明表示部132A〜132Cおよび134Aの表示色が変化して画像表示部132a〜132cおよび134aがアクティブ状態になっていることが示される。画像表示部132a〜132cおよび134aがアクティブ状態になっているときに、方向キー135、拡大キー136および縮小キー137を操作することによって、画像の上下左右移動、拡大・縮小などを行うことができる。   Similarly to the display screen 131 shown in FIG. 10, the explanation display sections 132A to 132C and 134A shown in FIG. 11 are active switches of the image display sections 132a to 132c and 134a directly below, respectively. By operating the units 132A to 132C and 134A, the image display units 132a to 132c and 134a immediately below the respective units can be moved up and down, left and right, and enlarged and reduced, and the display colors of the explanation display units 132A to 132C and 134A Changes to indicate that the image display units 132a to 132c and 134a are in the active state. By operating the direction key 135, the enlargement key 136, and the reduction key 137 when the image display units 132a to 132c and 134a are in the active state, the image can be moved up and down, left and right, enlarged and reduced, and the like. .

なお、本実施形態1では、中心射影変換が可能な光学系として、図3に示すように双曲面ミラー111aを1枚用いた例を示したが、この他にも、図12に示すような2枚の双曲面ミラー111aおよび111bを用いた光学系についても、中心射影変換が可能である。   In the first embodiment, an example in which one hyperboloidal mirror 111a is used as an optical system capable of central projective transformation as shown in FIG. 3 is shown, but in addition to this, as shown in FIG. Center projective transformation is also possible for an optical system using two hyperboloid mirrors 111a and 111b.

図12に示すように、全方位視覚センサ11Aは、主鏡に当たる双曲面ミラー(主双曲面ミラー)111aの一方の焦点位置(焦点1)と副鏡に当たる双曲面ミラー(副双曲面ミラー)111bの他方の焦点位置(焦点1)とが一致している。また、双曲線の回転軸(双曲面ミラー111a,111bの光軸)J1と撮像手段11bの光軸J2とが一致されており、双曲面ミラー11bの他方の焦点位置(焦点1)と撮像手段11bのレンズ主点とが一致するように配設されている。双曲面ミラー111aの凸部先端は鏡面が設けられておらず、光が透過されるようになっている。   As shown in FIG. 12, the omnidirectional vision sensor 11A includes one focal position (focal point 1) of a hyperboloid mirror (main hyperboloid mirror) 111a that hits the main mirror and a hyperboloid mirror (sub hyperboloid mirror) 111b that hits the sub mirror. Is coincident with the other focal position (focal point 1). Further, the hyperbolic rotation axis (optical axis of the hyperboloid mirrors 111a and 111b) J1 and the optical axis J2 of the imaging means 11b coincide with each other, and the other focal position (focal point 1) of the hyperboloid mirror 11b and the imaging means 11b. The lens principal points are arranged so as to coincide with each other. The tip of the convex portion of the hyperboloidal mirror 111a is not provided with a mirror surface so that light can be transmitted therethrough.

この全方位視覚センサ11において、双曲面ミラー111aの焦点1に向かう光は、双曲面ミラー111aで反射されて双曲面ミラー111bの一方の焦点位置(焦点2)に向かう。この焦点2に向かった光は、双曲面ミラー111bで反射され、双曲面ミラー111bの他方の焦点位置(焦点1)に向かい、撮像手段11bによって撮像される。よって、撮像手段11bによって撮像される画像は、視野方向によって視点位置が変わらず、双曲面ミラー111aの焦点(焦点1)を視点とした画像となる。
(実施形態2)
図13(a)は本発明の自動車の実施形態2における上面図であり、図13(b)はその側面図である。
In this omnidirectional visual sensor 11, light directed to the focal point 1 of the hyperboloidal mirror 111a is reflected by the hyperboloidal mirror 111a and directed to one focal position (focal point 2) of the hyperboloidal mirror 111b. The light traveling toward the focal point 2 is reflected by the hyperboloidal mirror 111b, travels toward the other focal position (focal point 1) of the hyperboloidal mirror 111b, and is imaged by the imaging unit 11b. Therefore, the image captured by the imaging unit 11b does not change the viewpoint position depending on the viewing direction, and is an image with the focal point (focal point 1) of the hyperboloid mirror 111a as the viewpoint.
(Embodiment 2)
FIG. 13 (a) is a top view in Embodiment 2 of the automobile of the present invention, and FIG. 13 (b) is a side view thereof.

図13(a)および図13(b)に示すように、自動車(車両)1は、フロントバンパー2のコーナ上部(本実施形態2では左側コーナ部)と、その設置位置の対角線上にあるリアバンパー3のコーナ上部(本実施形態2では右側コーナ部)に全方位視覚センサ11がそれぞれ設置されている。車両1の前方エンジン室内または後方貨物室内などには画像処理手段12が設けられている。車両1の運転席には、例えば前方パネル内またはパネル横などに表示手段13および表示制御手段14が設けられている。   As shown in FIGS. 13 (a) and 13 (b), an automobile (vehicle) 1 includes a rear bumper on a corner upper portion of the front bumper 2 (left corner portion in the second embodiment) and a diagonal line of the installation position thereof. The omnidirectional vision sensors 11 are respectively installed at the upper corners of the three corners (the right corner portion in the second embodiment). An image processing means 12 is provided in the front engine compartment or the rear cargo compartment of the vehicle 1. In the driver's seat of the vehicle 1, for example, a display unit 13 and a display control unit 14 are provided in the front panel or on the side of the panel.

各全方位視覚センサ11はそれぞれ、自身を中心として周囲360度の視野領域における映像が得られるが、例えばフロントバンパー2上に設置されている全方位視覚センサ11は、斜め後方視野領域(右側)において略水平方向90度の視野領域が自車両の画像により死角となり、有効な視野領域は前方および左側の270度である。また、リアバンパー3上に設置されている全方位視覚センサ11は斜め前方視野領域(左側)において略水平方向90度の視野領域が自車両の画像により死角となり、有効な視野領域は後方および右側の270度である。よって、両全方位視覚センサ11の視野領域を合わせて、運転者にとって死角となりやすい車両のすぐそばの領域において略360度の視野を得ることができる。   Each omnidirectional visual sensor 11 can obtain an image in a 360-degree viewing field centered on itself. For example, the omnidirectional visual sensor 11 installed on the front bumper 2 has an oblique rear viewing field (right side). The visual field area of 90 degrees in the substantially horizontal direction becomes a blind spot by the image of the host vehicle, and the effective visual field areas are 270 degrees on the front and left sides. Further, the omnidirectional visual sensor 11 installed on the rear bumper 3 has a visual field area of 90 degrees in the horizontal direction in the oblique front visual field area (left side) as a blind spot by the image of the own vehicle, and the effective visual field areas are the rear and right side. 270 degrees. Therefore, the field of view of both omnidirectional vision sensors 11 can be combined, and a field of view of approximately 360 degrees can be obtained in a region immediately adjacent to the vehicle that is likely to be a blind spot for the driver.

図14は、本実施形態2における表示手段13によって表示される表示画面の一例を示す図である。   FIG. 14 is a diagram illustrating an example of a display screen displayed by the display unit 13 according to the second embodiment.

図14に示すように、表示画面138には、直下の擬似鳥瞰図表示部138aを説明する説明表示部138A、擬似鳥瞰図の組み合せにより周囲略360度の視野領域の画像を表示する擬似鳥瞰図表示部138a、上下左右の方向キー135、画像の拡大キー136および画像の縮小キー137が表示されている。   As shown in FIG. 14, on the display screen 138, an explanation display unit 138A for explaining the pseudo bird's-eye view display unit 138a directly below, and a pseudo bird's-eye view display unit 138a for displaying an image of a field of view around 360 degrees by combining the pseudo bird's-eye view. An up / down / left / right direction key 135, an image enlargement key 136, and an image reduction key 137 are displayed.

擬似鳥瞰図表示部138aにおいて、太い点線で区切られた領域1〜4のうち、領域1ではフロントバンパー2上に設置されている全方位視覚センサ11で得られた画像データを用いて表示が行われ、領域4ではリアバンパー3上に設置されている全方位視覚センサ11で得られた画像データを用いて表示が行われている。また、領域2および3では、フロントバンパー2上に設置されている全方位視覚センサ11で得られた画像データと、リアバンパー3上に設置されている全方位視覚センサ11で得られた画像データとのいずれかを選択的に用いて表示が行われている。   In the pseudo bird's-eye view display unit 138a, among the areas 1 to 4 divided by the thick dotted line, the area 1 is displayed using the image data obtained by the omnidirectional visual sensor 11 installed on the front bumper 2, In the area 4, display is performed using image data obtained by the omnidirectional visual sensor 11 installed on the rear bumper 3. In areas 2 and 3, image data obtained by the omnidirectional visual sensor 11 installed on the front bumper 2, image data obtained by the omnidirectional visual sensor 11 installed on the rear bumper 3, and Any one of these is selectively used for display.

この擬似鳥瞰図表示部138aにおいても、図7〜図9を用いて説明したように、視野中心付近については、路面を俯瞰するような鳥瞰図が表示され、視野中心から一定距離離れた部分については、射影変換中心を通って路面に平行な平面内で射影変換中心(ミラー焦点)から一定距離離れた位置に軸を有し、その射影変換中心と路面との距離を半径とする一部円筒面または一部球面に射影した画像が表示される。これにより、視点から離れたところにある物体が水平視野に近い形で表示され、歪が少なく、違和感が少ない画像が得られる。   Also in this pseudo bird's-eye view display unit 138a, as described with reference to FIGS. 7 to 9, a bird's-eye view overlooking the road surface is displayed around the center of the field of view, A cylindrical surface having an axis at a certain distance from the projective transformation center (mirror focus) in a plane parallel to the road surface through the projective transformation center and having a radius between the projective transformation center and the road surface, or An image projected on a partially spherical surface is displayed. As a result, an object located away from the viewpoint is displayed in a form close to a horizontal field of view, and an image with less distortion and less discomfort can be obtained.

以上により、上記実施形態1,2によれば、周囲360度の視野領域における映像が得られ、その映像に対して中心射影変換が可能な光学系11aを通して得られる光学像を撮像手段11bにて画像データに変換する。その画像データを画像処理手段12にてパノラマ画像データや透視画像データに変換して、表示手段13にて第2画像データに対応する画像を表示する。視野中心付近は路面を俯瞰するような画像データに変換し、視野中心から一定距離離れた部分は射影変換中心を通って路面に平行な平面内で射影変換中心から一定距離離れた位置に軸を有し、射影変換中心と路面との距離を半径とする一部円筒面または一部球面に射影した画像データに変換する。これによって、運転者にとって違和感の少ない画像が得られ、移動体の周囲の状況を容易に確認して運転者の負担を減らすことができ、安全性を高めることができる移動体周囲監視装置を得ることができる。   As described above, according to the first and second embodiments, an image in the 360 ° field of view is obtained, and an optical image obtained through the optical system 11a capable of central projective transformation on the image is obtained by the imaging unit 11b. Convert to image data. The image data is converted into panoramic image data or fluoroscopic image data by the image processing means 12, and an image corresponding to the second image data is displayed by the display means 13. The image near the center of the field of view is converted into image data that looks down on the road surface, and the part away from the center of the field of view through the projective transformation center has an axis at a position away from the center of projection transformation within a plane parallel to the road surface. And converting into image data projected onto a partial cylindrical surface or a partial spherical surface having a radius of the distance between the projection conversion center and the road surface. As a result, an image with a little uncomfortable feeling for the driver is obtained, and a moving body surroundings monitoring device that can easily check the surroundings of the moving body to reduce the burden on the driver and improve safety can be obtained. be able to.

なお、上記実施例1,2では、本発明の移動体として、乗用車(自動車)を例に挙げて説明を行ったが、この他にも、バスなどの大型車や貨物用車両(トラック)などの自動車についても本発明は適用可能である。特に、貨物用車両では、貨物室によって運転者の後方視界が遮られることが多いため、本発明の移動体周囲監視装置を搭載することは、非常に有用である。また、自動車だけでなく、電車など前後が長い車両にも本発明は有効である。さらには、車両に限らず、航空機や船舶など、有人・無人を問わず、全ての移動体に対して本発明は有効に適用可能である。   In the first and second embodiments, the description has been given by taking a passenger car (automobile) as an example of the moving body of the present invention, but in addition to this, a large vehicle such as a bus, a freight vehicle (truck), etc. The present invention can also be applied to other automobiles. In particular, in a freight vehicle, the driver's rear view is often obstructed by the cargo compartment, so that it is very useful to mount the moving object surroundings monitoring device of the present invention. In addition, the present invention is effective not only for automobiles but also for vehicles such as trains that are long before and after. Furthermore, the present invention can be effectively applied to all mobile objects, whether manned or unmanned, such as aircraft and ships, not limited to vehicles.

また、以上のように、本発明の好ましい上記実施形態1,2を用いて本発明を例示してきたが、本発明は、この実施形態1,2に限定して解釈されるべきものではない。本発明は、特許請求の範囲によってのみその範囲が解釈されるべきであることが理解される。当業者は、本発明の具体的な好ましい実施形態1,2の記載から、本発明の記載および技術常識に基づいて等価な範囲を実施することができることが理解される。本明細書において引用した特許、特許出願および文献は、その内容自体が具体的に本明細書に記載されているのと同様にその内容が本明細書に対する参考として援用されるべきであることが理解される。   Further, as described above, the present invention has been exemplified by using the above-described preferred embodiments 1 and 2 of the present invention. However, the present invention should not be construed as being limited to the first and second embodiments. It is understood that the scope of the present invention should be construed only by the claims. It is understood that those skilled in the art can implement an equivalent range based on the description of the present invention and the common general technical knowledge from the description of the specific preferred embodiments 1 and 2 of the present invention. Patents, patent applications, and documents cited herein should be incorporated by reference in their entirety, as if the contents themselves were specifically described herein. Understood.

本発明によれば、移動体の運転席から死角となる部分を運転者にとって違和感が少ない画像により容易に確認することができるため、出発時における周囲確認時、左折時や右折時、駐車場や車庫からの入出庫時、左右後方確認時等において、安全確認をより確実に行うことができる。また、運転者が表示手段に表示される複数のカメラを切り替えたり、カメラの向きを切り替えたりしなくてもよいため、安全運転を確実に行うことができる。本発明は、自動車やバス、電車などの車両、航空機や船舶等、有人・無人を問わずあらゆる移動体の安全を確保するために非常に有効である。   According to the present invention, it is possible to easily confirm a blind spot from the driver's seat of the moving body with an image that is less uncomfortable for the driver, so when checking the surroundings at the time of departure, when turning left or right, when parking, Safety confirmation can be more reliably performed at the time of entering / exiting from the garage, at the time of confirming left and right rear. Further, since it is not necessary for the driver to switch between a plurality of cameras displayed on the display means or to switch the direction of the cameras, safe driving can be reliably performed. INDUSTRIAL APPLICABILITY The present invention is very effective for ensuring the safety of all moving objects, whether manned or unmanned, such as vehicles such as automobiles, buses, and trains, airplanes, and ships.

(a)は、本発明の移動体周囲監視装置を搭載した自動車の実施形態1の上面図、(b)はその側面図である。(A) is the top view of Embodiment 1 of the motor vehicle carrying the mobile body surroundings monitoring apparatus of this invention, (b) is the side view. 本発明の移動体周囲監視装置の実施形態1の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of Embodiment 1 of the mobile body surroundings monitoring apparatus of this invention. 図2の光学系の要部構成例を示す斜視図である。FIG. 3 is a perspective view illustrating a configuration example of a main part of the optical system in FIG. 2. 図2の画像処理手段の要部構成例を示すブロック図である。FIG. 3 is a block diagram illustrating a configuration example of a main part of the image processing unit in FIG. 2. 図2の移動体周囲監視装置において、入力画像からパノラマ画像への変換について説明するための平面図である。FIG. 4 is a plan view for explaining conversion from an input image to a panoramic image in the moving object surrounding monitoring apparatus of FIG. 2. 図2の移動体周囲監視装置において、入力画像から透視投影画像への変換について説明するための斜視図である。FIG. 4 is a perspective view for explaining conversion from an input image to a perspective projection image in the moving object surroundings monitoring apparatus of FIG. 2. (a)は、図2の移動体周囲監視装置において、入力画像から一部円筒面に射影した画像への変換について説明するための斜視図であり、(b)はその上面図である。(A) is a perspective view for demonstrating the conversion from the input image to the image projected on the partial cylindrical surface in the moving body surroundings monitoring apparatus of FIG. 2, (b) is the top view. (a)は、図2の移動体周囲監視装置において、入力画像から一部円筒面および一部球面に射影した画像への変換について説明するための斜視図であり、(b)は、その上面図である。(A) is the perspective view for demonstrating conversion to the image projected on the partial cylindrical surface and the partial spherical surface from the input image in the mobile body surrounding monitoring apparatus of FIG. 2, (b) is the upper surface. FIG. (a)および(b)は、従来および本発明の実施形態1の移動体周囲監視装置において、表示手段に表示される画像の違いについて説明するための模式図である。(A) And (b) is a schematic diagram for demonstrating the difference in the image displayed on a display means in the moving body surroundings monitoring apparatus of Embodiment 1 of this invention and this invention. 図2の移動体周囲監視装置において、表示手段の表示形態の一例について説明するための模式図である。FIG. 3 is a schematic diagram for explaining an example of a display form of a display unit in the moving object surrounding monitoring apparatus of FIG. 2. 図2の移動体周囲監視装置において、表示手段の表示形態の他の一例について説明するための模式図である。FIG. 10 is a schematic diagram for explaining another example of the display form of the display means in the mobile object surrounding monitoring apparatus of FIG. 2. 図2の移動体周囲監視装置における光学系の他の構成例を示す斜視図である。It is a perspective view which shows the other structural example of the optical system in the moving body surroundings monitoring apparatus of FIG. (a)は、本発明の移動体周囲監視装置を搭載した自動車の実施形態2の上面図、(b)はその側面図である。(A) is the top view of Embodiment 2 of the motor vehicle carrying the moving body surroundings monitoring apparatus of this invention, (b) is the side view. 図13の移動体周囲監視装置において、表示手段の表示形態の一例について説明するための模式図である。FIG. 14 is a schematic diagram for explaining an example of a display form of a display unit in the moving object surrounding monitoring apparatus of FIG. 13.

符号の説明Explanation of symbols

1 車両
2 フロントバンパー
3 リアバンパー
9 車両位置検出手段
10 移動体周囲監視装置
11 全方位視覚センサ
11a 光学系
111a,111b 双曲面ミラー
11b 撮像手段
111 円形入力画像
112 円形入力画像をドーナツ状に切り出し切り開く途中の状態
113 引伸ばし後のパノラマ画像
114,115a,115b 一部円筒面(半円筒面部分)
116 一部球面(半球面部分)
12 画像処理手段
12a 画像変換手段
12b 出力バッファメモリ(画像比較距離検出手段)
12c バスライン
121a A/D変換器
122a 入力バッファメモリ
123a CPU
124a LUT
125a 画像変換ロジック
13 表示手段
13a 画像処理手段からの出力
13b 車両位置検出手段からの出力
131,132 表示画面
131A,132A,133A,134A 説明表示部
131a,132a〜132c 透視画像表示部
133a,134a 擬似鳥瞰図表示部
135 方向キー
136 拡大キー
137 縮小キー
14 表示制御手段
14a 制御信号
15 警報発生手段
20 視点から離れたところにある物体
J1、J 双曲面ミラーの回転軸
K 一部円筒面の軸
115a,115b 一部円筒面
L Z軸に平行な軸
N 一部円筒面の軸の交点
DESCRIPTION OF SYMBOLS 1 Vehicle 2 Front bumper 3 Rear bumper 9 Vehicle position detection means 10 Moving body surrounding monitoring device 11 Omnidirectional visual sensor 11a Optical system 111a, 111b Hyperboloid mirror 11b Imaging means 111 Circular input image 112 On the way of cutting out and cutting out a circular input image into a donut shape State 113 of panorama image after enlargement 114, 115a, 115b Partial cylindrical surface (half-cylindrical surface part)
116 Partial spherical surface (hemispherical surface)
12 image processing means 12a image converting means 12b output buffer memory (image comparison distance detecting means)
12c Bus line 121a A / D converter 122a Input buffer memory 123a CPU
124a LUT
125a Image conversion logic 13 Display means 13a Output from image processing means 13b Output from vehicle position detection means 131, 132 Display screen 131A, 132A, 133A, 134A Explanation display part 131a, 132a-132c Perspective image display part 133a, 134a Bird's eye view display unit 135 Direction key 136 Expand key 137 Reduce key 14 Display control means 14a Control signal 15 Alarm generating means 20 Object located far from viewpoint J1, J Rotation axis of hyperboloid mirror K Partial axis 115a, 115b Partial cylindrical surface L Axis parallel to Z axis N Intersection of partial cylindrical surface axis

Claims (14)

周囲360度の視野領域の映像が得られ、その映像に対して中心射影変換が可能な光学系と、該光学系を通して得られる光学像を第1画像データに変換する撮像手段とを含む全方位視覚センサと、
該第1画像データを少なくともパノラマ画像データまたは透視画像データに変換する画像処理手段と、
該画像処理手段で得られた第2画像データに対応する画像を表示する表示手段とを備え、
前記画像処理手段は、視野中心付近では移動体の少なくとも一部を含むその配置面を俯瞰する画像データに変換し、かつ視野中心から一定距離離れた該視野中心付近以外の視野部分では該移動体の配置面から上方を該移動体側から横方向に見た場合の画像データに変換する画像変換手段を有する移動体周囲監視装置。
An omnidirectional display including an optical system capable of obtaining an image of a 360-degree field of view and capable of central projective conversion with respect to the image, and imaging means for converting an optical image obtained through the optical system into first image data A visual sensor;
Image processing means for converting the first image data into at least panoramic image data or perspective image data;
Display means for displaying an image corresponding to the second image data obtained by the image processing means,
The image processing means converts the arrangement surface including at least a part of the moving body into an image data overlooking the vicinity of the visual field center, and the moving body in a visual field portion other than the vicinity of the visual field center at a certain distance from the visual field center. A moving body surroundings monitoring device having image conversion means for converting image data when viewed from above the arrangement surface in a lateral direction from the moving body side.
前記画像変換手段は、前記視野中心付近以外の視野部分において、前記射影変換中心を含み移動体の配置面に平行な平面内に、該射影変換中心から一定距離離れた位置に円筒軸および球中心点の少なくともいずれかを有し、該射影変換中心と移動体の配置面との距離を半径とする一部円筒面および一部球面の少なくともいずれかに射影した画像データに変換する請求項1に記載の移動体周囲監視装置。   The image conversion means includes a cylindrical axis and a spherical center at a position apart from the projective transformation center in a plane parallel to the arrangement plane of the moving body including the projective transformation center in a visual field portion other than the vicinity of the visual field center. 2. The image data having at least one of the points and converted to image data projected onto at least one of a partial cylindrical surface and a partial spherical surface having a radius of a distance between the projective transformation center and a moving object arrangement surface. The moving body surrounding monitoring apparatus described. 前記画像変換手段は、前記視野中心付近以外の視野部分において、前記射影変換中心を含み移動体の配置面に平行な平面内に、該射影変換中心から反対方向にそれぞれ一定距離離れた各位置にそれぞれ円筒軸および球中心点の少なくともいずれかを有し、該射影変換中心と移動体の配置面との距離を半径とする各一部円筒面および各一部球面の少なくともいずれかの各面にそれぞれ射影した各画像データに変換する請求項1に記載の移動体周囲監視装置。   The image conversion means, in a field portion other than the vicinity of the field center, in a plane that includes the projection conversion center and is parallel to the arrangement surface of the moving body, at each position spaced apart from the projection conversion center by a certain distance. At least one of each cylindrical surface and each spherical surface that has at least one of a cylindrical axis and a spherical center point, and whose radius is the distance between the projective transformation center and the moving object placement surface The moving body surroundings monitoring apparatus according to claim 1, wherein the moving object surrounding monitoring apparatus converts each of the projected image data. 前記射影面が、射影変換中心を含み移動体の配置面に平行な平面内で該射影変換中心からそれぞれ一定距離離れた位置に互いに直交する円筒軸をそれぞれ有する二つの前記一部円筒面を有し、前記一部球面は該二つの一部円筒面の円筒軸の交点を中心点とし、該一部円筒面の半径と同じ半径を有して該二つの一部円筒面を繋ぐ球面である請求項2または3に記載の移動体周囲監視装置。   The projection plane has two partial cylindrical planes each having a cylindrical axis perpendicular to each other at a position spaced apart from the projection transformation center within a plane that includes the projection transformation center and is parallel to the arrangement plane of the moving object. The partial spherical surface is a spherical surface having the same center radius as the intersection of the cylindrical axes of the two partial cylindrical surfaces and connecting the two partial cylindrical surfaces. The moving body surroundings monitoring device according to claim 2 or 3. 前記全方位視覚センサにおいて、前記光学系は、軸を中心に双曲線を回転して得られる2葉双曲面の一方の曲面における凸状面に鏡面を形成した双曲面ミラーを有し、前記撮像手段は、その光軸が該双曲線の回転軸と一致し、該双曲面ミラーの二つの焦点のうちの他方の焦点位置にレンズの主点が配置されている請求項1〜4のいずれかに記載の移動体周囲監視装置。   In the omnidirectional visual sensor, the optical system includes a hyperboloid mirror in which a convex surface of one curved surface of a two-leaf hyperboloid obtained by rotating a hyperbola around an axis is formed, and the imaging unit The optical axis thereof coincides with the rotation axis of the hyperbola, and the principal point of the lens is disposed at the other focal position of the two focal points of the hyperboloid mirror. Mobile object surrounding monitoring device. 前記全方位視覚センサにおいて、前記光学系は、軸を中心に双曲線を回転して得られる2葉双曲面の一方の曲面における凸状面に、光が透過可能な凸部先端部を除いて鏡面を形成した主双曲面ミラーと、他方の曲面における凸状面に鏡面を形成した副双曲面ミラーとを有し、前記撮像手段は、その光軸が該双曲線の回転軸と一致し、該副双曲面ミラーの二つの焦点のうちの他方の焦点位置にレンズの主点が配置されている請求項1〜4のいずれかに記載の移動体周囲監視装置。   In the omnidirectional vision sensor, the optical system is a mirror surface except for a convex portion that can transmit light on a convex surface of one curved surface of a two-leaf hyperboloid obtained by rotating a hyperbola around an axis. And a sub-hyperbolic mirror in which the convex surface of the other curved surface forms a mirror surface, and the imaging means has an optical axis that coincides with the rotation axis of the hyperbola, The moving body surroundings monitoring apparatus according to any one of claims 1 to 4, wherein the principal point of the lens is disposed at the other focal position of the two focal points of the hyperboloidal mirror. 前記表示手段が地図画面上に前記移動体の位置画像を表示する位置表示手段を兼ねており、
該移動体の位置を検出する移動体位置検出手段と、該移動体位置検出手段で検出された位置情報に基づく該移動体の位置画像と前記移動体の周囲画像を切り替えるように該表示手段を制御可能とする表示制御手段とを更に有する請求項1〜6のいずれかに記載の移動体周囲監視装置。
The display means also serves as a position display means for displaying a position image of the moving body on a map screen,
Moving body position detecting means for detecting the position of the moving body; and the display means for switching between the position image of the moving body and the surrounding image of the moving body based on position information detected by the moving body position detecting means. The moving body surroundings monitoring device according to claim 1, further comprising display control means that can be controlled.
請求項1〜7のいずれかに記載の移動体周囲監視装置が搭載された移動体。   A moving body on which the moving body surroundings monitoring device according to claim 1 is mounted. 前記移動体周囲監視装置が前後のバンパーのうちの少なくとも一方のバンパー上に設置されている請求項8に記載の移動体。   The mobile body according to claim 8, wherein the mobile body surrounding monitoring device is installed on at least one of the front and rear bumpers. 前記移動体周囲監視装置は、前方バンパーの右側端部上および左側端部上のいずれか一方の位置に設置されていると共に、該設置位置に対する対角線上の後方バンパー上にも設置されている請求項9に記載の移動体。   The moving body surroundings monitoring device is installed at one of the positions on the right end and the left end of the front bumper, and is also installed on a rear bumper on a diagonal line with respect to the installation position. Item 10. The moving object according to Item 9. 周囲360度の視野領域の映像に対して中心射影変換が可能な光学系を通して得られる光学像を撮像手段にて撮像して得られる第1画像データを、第2画像データとして、視野中心付近では移動体の少なくとも一部を含むその配置面を俯瞰する画像データに変換し、かつ視野中心から一定距離離れた該視野中心付近以外の視野部分では該移動体の配置面から上方を該移動体側から横方向に見た場合の画像データに変換する画像変換方法。   In the vicinity of the center of the field of view, the first image data obtained by capturing an optical image obtained through an optical system capable of central projective transformation with respect to the image of the 360-degree field of view around the image is captured by the imaging means as the second image data. The image data including the at least part of the moving object is converted into image data for bird's-eye view, and the visual field part other than the vicinity of the visual field center that is a fixed distance away from the visual field center is above the moving object from above the moving object side. An image conversion method for converting image data when viewed in the horizontal direction. 前記第1画像データを前記第2画像データに変換する際に、前記視野中心付近以外の視野部分において、前記射影変換中心を含み移動体の配置面に平行な平面内に、該射影変換中心から一定距離離れた位置に円筒軸および球中心点の少なくともいずれかを有し、該射影変換中心と移動体の配置面との距離を半径とする一部円筒面および一部球面の少なくともいずれかに射影した該第2画像データに変換する請求項11に記載の画像変換方法。   When converting the first image data into the second image data, in a field portion other than the vicinity of the field center, within the plane including the projection conversion center and parallel to the arrangement surface of the moving object, the projection conversion center At least one of a cylindrical axis and a spherical center point at a certain distance away from each other, and at least one of a partial cylindrical surface and a partial spherical surface having a radius between the projective transformation center and the moving object placement surface The image conversion method according to claim 11, wherein the image is converted into the projected second image data. 前記第1画像データを前記第2画像データに変換する際に、前記視野中心付近以外の視野部分において、前記射影変換中心を含み移動体の配置面に平行な平面内に、該射影変換中心からそれぞれ互いに反対方向に一定距離離れた各位置にそれぞれ円筒軸および球中心点の少なくともいずれかを有し、該射影変換中心と移動体の配置面との距離を半径とする各一部円筒面および各一部球面の少なくともいずれかの各面にそれぞれ射影した該各第2画像データにそれぞれ変換する請求項11に記載の画像変換方法。   When converting the first image data into the second image data, in a field portion other than the vicinity of the field center, within the plane including the projection conversion center and parallel to the arrangement surface of the moving object, the projection conversion center Each cylindrical surface having at least one of a cylindrical axis and a spherical center point at each position separated by a certain distance in the opposite direction, each having a radius between the projective transformation center and the moving surface The image conversion method according to claim 11, wherein each image is converted into the second image data projected onto at least one of the partial spherical surfaces. 前記射影面が、射影変換中心を含み移動体の配置面に平行な平面内に、該射影変換中心からそれぞれ一定距離離れた位置に互いに直交する円筒軸を有する二つの前記一部円筒面を有し、前記一部球面は該二つの該一部円筒面の円筒軸の交点を中心とし、該一部円筒面の半径と同じ半径を有して該二つの一部円筒面を繋ぐ球面である請求項12または13に記載の画像変換方法。   The projection plane includes two partial cylindrical planes having cylindrical axes orthogonal to each other at positions spaced apart from the projection transformation center by a predetermined distance in a plane that includes the projection transformation center and is parallel to the arrangement plane of the moving object. The partial spherical surface is a spherical surface having the same radius as the radius of the partial cylindrical surface and connecting the two partial cylindrical surfaces with the center of the intersection of the cylindrical axes of the two partial cylindrical surfaces. The image conversion method according to claim 12 or 13.
JP2003403829A 2003-12-02 2003-12-02 Mobile surrounding surveillance apparatus, vehicle, and image transforming method Pending JP2005167638A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003403829A JP2005167638A (en) 2003-12-02 2003-12-02 Mobile surrounding surveillance apparatus, vehicle, and image transforming method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003403829A JP2005167638A (en) 2003-12-02 2003-12-02 Mobile surrounding surveillance apparatus, vehicle, and image transforming method

Publications (1)

Publication Number Publication Date
JP2005167638A true JP2005167638A (en) 2005-06-23

Family

ID=34726984

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003403829A Pending JP2005167638A (en) 2003-12-02 2003-12-02 Mobile surrounding surveillance apparatus, vehicle, and image transforming method

Country Status (1)

Country Link
JP (1) JP2005167638A (en)

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006131166A (en) * 2004-11-09 2006-05-25 Alpine Electronics Inc Drive supporting device
JP2007049276A (en) * 2005-08-08 2007-02-22 Sanyo Electric Co Ltd On-vehicle panorama camera system
JP2007158578A (en) * 2005-12-02 2007-06-21 National Univ Corp Shizuoka Univ Entire circumference information annularly displaying system
JP2008181330A (en) * 2007-01-24 2008-08-07 Sanyo Electric Co Ltd Image processor and image processing method
KR100921095B1 (en) 2008-03-18 2009-10-08 현대자동차주식회사 Information display system for vehicle
US7828766B2 (en) 2005-12-20 2010-11-09 Advanced Cardiovascular Systems, Inc. Non-compliant multilayered balloon for a catheter
US8052638B2 (en) 2008-11-26 2011-11-08 Abbott Cardiovascular Systems, Inc. Robust multi-layer balloon
US8070719B2 (en) 2008-11-26 2011-12-06 Abbott Cardiovascular Systems, Inc. Low compliant catheter tubing
WO2012073391A1 (en) * 2010-11-29 2012-06-07 パナソニック株式会社 Driving-assistance display device
WO2012073392A1 (en) * 2010-11-29 2012-06-07 パナソニック株式会社 Driving-assistance display device
JP2013034142A (en) * 2011-08-03 2013-02-14 Nippon Seiki Co Ltd Peripheral image display device
JP2013046124A (en) * 2011-08-23 2013-03-04 Fujitsu General Ltd Operation support device
WO2013047012A1 (en) * 2011-09-27 2013-04-04 アイシン精機株式会社 Vehicle surroundings monitoring device
JP2013128256A (en) * 2011-12-19 2013-06-27 Canon Inc Imaging apparatus and control method thereof
JP2014033469A (en) * 2013-11-01 2014-02-20 Aisin Seiki Co Ltd Vehicle periphery monitoring device
US8684963B2 (en) 2012-07-05 2014-04-01 Abbott Cardiovascular Systems Inc. Catheter with a dual lumen monolithic shaft
KR101509948B1 (en) 2013-10-23 2015-04-08 서울과학기술대학교 산학협력단 Apparatus for acquiring super wide angle panorama image for vehicle
US9056190B2 (en) 2006-06-30 2015-06-16 Abbott Cardiovascular Systems Inc. Balloon catheter tapered shaft having high strength and flexibility and method of making same
US9216274B2 (en) 2007-12-17 2015-12-22 Abbott Cardiovascular Systems Inc. Catheter having transitioning shaft segments
US9308863B2 (en) 2010-03-26 2016-04-12 Aisin Seiki Kabushiki Kaisha Vehicle peripheral observation device
US9352135B2 (en) 2010-09-14 2016-05-31 Abbott Cardiovascular Systems Inc. Method for forming catheter balloon
US9381325B2 (en) 2008-11-26 2016-07-05 Abbott Cadiovascular Systems, Inc. Robust catheter tubing
KR101683763B1 (en) * 2015-09-14 2016-12-07 주식회사 프레스토솔루션 Augmented Reality Robot Simulation System And Method Using 360 Degree Camera
KR20170123328A (en) * 2015-05-27 2017-11-07 구글 엘엘씨 Omni-stereo capture and rendering of panoramic virtual reality content
US9821147B2 (en) 2012-11-19 2017-11-21 Abbott Cardiovascular Systems Inc. Multilayer balloon for a catheter
US9855400B2 (en) 2001-09-19 2018-01-02 Abbott Cardiovascular Systems, Inc. Catheter with a multilayered shaft section having a polyimide layer
CN108602465A (en) * 2016-01-28 2018-09-28 鸿海精密工业股份有限公司 Vehicle image display system and the vehicle for being equipped with the image display system
US10375381B2 (en) 2015-05-27 2019-08-06 Google Llc Omnistereo capture and render of panoramic virtual reality content
US10406329B2 (en) 2011-05-26 2019-09-10 Abbott Cardiovascular Systems, Inc. Through tip for catheter

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11331654A (en) * 1998-05-14 1999-11-30 Yasushi Yagi Omnidirectional viewing angle sensor
WO2000064175A1 (en) * 1999-04-16 2000-10-26 Matsushita Electric Industrial Co., Ltd. Image processing device and monitoring system
JP2001331789A (en) * 2000-05-23 2001-11-30 Sharp Corp System for monitoring surrounding of traveling object
JP2002218451A (en) * 2000-10-11 2002-08-02 Sharp Corp Device for monitoring moving object surrounding

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11331654A (en) * 1998-05-14 1999-11-30 Yasushi Yagi Omnidirectional viewing angle sensor
WO2000064175A1 (en) * 1999-04-16 2000-10-26 Matsushita Electric Industrial Co., Ltd. Image processing device and monitoring system
JP2001331789A (en) * 2000-05-23 2001-11-30 Sharp Corp System for monitoring surrounding of traveling object
JP2002218451A (en) * 2000-10-11 2002-08-02 Sharp Corp Device for monitoring moving object surrounding

Cited By (62)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9855400B2 (en) 2001-09-19 2018-01-02 Abbott Cardiovascular Systems, Inc. Catheter with a multilayered shaft section having a polyimide layer
JP2006131166A (en) * 2004-11-09 2006-05-25 Alpine Electronics Inc Drive supporting device
JP4573242B2 (en) * 2004-11-09 2010-11-04 アルパイン株式会社 Driving assistance device
JP2007049276A (en) * 2005-08-08 2007-02-22 Sanyo Electric Co Ltd On-vehicle panorama camera system
JP4679293B2 (en) * 2005-08-08 2011-04-27 三洋電機株式会社 In-vehicle panoramic camera system
JP2007158578A (en) * 2005-12-02 2007-06-21 National Univ Corp Shizuoka Univ Entire circumference information annularly displaying system
US9707381B2 (en) 2005-12-20 2017-07-18 Abbott Cardiovascular Systems Inc. Non-compliant multilayered balloon for a catheter
US7828766B2 (en) 2005-12-20 2010-11-09 Advanced Cardiovascular Systems, Inc. Non-compliant multilayered balloon for a catheter
US10166371B2 (en) 2005-12-20 2019-01-01 Abbott Cardiovascular Systems Inc. Non-compliant multilayered balloon for a catheter
US8535596B2 (en) 2005-12-20 2013-09-17 Abbott Cardiovascular Systems, Inc. Non-compliant multilayered balloon for a catheter
US8394055B2 (en) 2005-12-20 2013-03-12 Abbott Cardiovascular Systems Inc. Non-compliant multilayered balloon for a catheter
US8388575B2 (en) 2005-12-20 2013-03-05 Abbott Cardiovascular Systems Inc. Non-compliant multilayered balloon for a catheter
US10245352B2 (en) 2006-06-30 2019-04-02 Abbott Cardiovascular Systems Inc. Catheter shaft having high strength and flexibility
US9056190B2 (en) 2006-06-30 2015-06-16 Abbott Cardiovascular Systems Inc. Balloon catheter tapered shaft having high strength and flexibility and method of making same
US9205223B2 (en) 2006-06-30 2015-12-08 Abbott Cardiovascular Systems Inc Balloon catheter shaft having high strength and flexibility
US9968713B2 (en) 2006-06-30 2018-05-15 Abbott Cardiovascular Systems Inc. Balloon catheter shaft having high strength and flexibility
JP2008181330A (en) * 2007-01-24 2008-08-07 Sanyo Electric Co Ltd Image processor and image processing method
US9216274B2 (en) 2007-12-17 2015-12-22 Abbott Cardiovascular Systems Inc. Catheter having transitioning shaft segments
US9468744B2 (en) 2007-12-17 2016-10-18 Abbott Cardiovascular Systems Inc. Catheter having transitioning shaft segments
KR100921095B1 (en) 2008-03-18 2009-10-08 현대자동차주식회사 Information display system for vehicle
US9669196B2 (en) 2008-11-26 2017-06-06 Abbott Cardiovascular Systems, Inc. Robust multi-layer balloon
US9539368B2 (en) 2008-11-26 2017-01-10 Abbott Cardiovascular Systems, Inc. Robust catheter tubing
US8070719B2 (en) 2008-11-26 2011-12-06 Abbott Cardiovascular Systems, Inc. Low compliant catheter tubing
US9381325B2 (en) 2008-11-26 2016-07-05 Abbott Cadiovascular Systems, Inc. Robust catheter tubing
US8052638B2 (en) 2008-11-26 2011-11-08 Abbott Cardiovascular Systems, Inc. Robust multi-layer balloon
US9919650B2 (en) 2010-03-26 2018-03-20 Aisin Seiki Kabushiki Kaisha Vehicle peripheral observation device
US9308863B2 (en) 2010-03-26 2016-04-12 Aisin Seiki Kabushiki Kaisha Vehicle peripheral observation device
US10479275B2 (en) 2010-03-26 2019-11-19 Aisin Seiki Kabushiki Kaisha Vehicle peripheral observation device
CN105774656A (en) * 2010-03-26 2016-07-20 爱信精机株式会社 Vehicle Periphery Monitoring Device
US9579492B2 (en) 2010-09-14 2017-02-28 Abbott Cardiovascular Systems Inc. Method for forming catheter balloon
US9352135B2 (en) 2010-09-14 2016-05-31 Abbott Cardiovascular Systems Inc. Method for forming catheter balloon
WO2012073391A1 (en) * 2010-11-29 2012-06-07 パナソニック株式会社 Driving-assistance display device
US9067538B2 (en) 2010-11-29 2015-06-30 Panasonic Intellectual Property Management Co., Ltd. Drive assist display apparatus
US8848050B2 (en) 2010-11-29 2014-09-30 Panasonic Corporation Drive assist display apparatus
EP2647529A4 (en) * 2010-11-29 2014-03-19 Panasonic Corp Driving-assistance display device
EP2647529A1 (en) * 2010-11-29 2013-10-09 Panasonic Corporation Driving-assistance display device
CN102933430A (en) * 2010-11-29 2013-02-13 松下电器产业株式会社 Driving-assistance display device
JP2012119755A (en) * 2010-11-29 2012-06-21 Panasonic Corp Drive support display device
JP2012116221A (en) * 2010-11-29 2012-06-21 Panasonic Corp Driving-assistance display device
WO2012073392A1 (en) * 2010-11-29 2012-06-07 パナソニック株式会社 Driving-assistance display device
US10406329B2 (en) 2011-05-26 2019-09-10 Abbott Cardiovascular Systems, Inc. Through tip for catheter
US11383070B2 (en) 2011-05-26 2022-07-12 Abbott Cardiovascular Systems Inc. Through tip for catheter
JP2013034142A (en) * 2011-08-03 2013-02-14 Nippon Seiki Co Ltd Peripheral image display device
JP2013046124A (en) * 2011-08-23 2013-03-04 Fujitsu General Ltd Operation support device
CN103988499A (en) * 2011-09-27 2014-08-13 爱信精机株式会社 Vehicle surroundings monitoring device
WO2013047012A1 (en) * 2011-09-27 2013-04-04 アイシン精機株式会社 Vehicle surroundings monitoring device
JP2013074423A (en) * 2011-09-27 2013-04-22 Aisin Seiki Co Ltd Vehicle periphery monitoring device
EP2763407A4 (en) * 2011-09-27 2015-05-20 Aisin Seiki Vehicle surroundings monitoring device
CN103988499B (en) * 2011-09-27 2017-09-26 爱信精机株式会社 Vehicle periphery monitoring apparatus
US9467679B2 (en) 2011-09-27 2016-10-11 Aisin Seiki Kabushiki Kaisha Vehicle periphery monitoring device
JP2013128256A (en) * 2011-12-19 2013-06-27 Canon Inc Imaging apparatus and control method thereof
US9707380B2 (en) 2012-07-05 2017-07-18 Abbott Cardiovascular Systems Inc. Catheter with a dual lumen monolithic shaft
US8684963B2 (en) 2012-07-05 2014-04-01 Abbott Cardiovascular Systems Inc. Catheter with a dual lumen monolithic shaft
US9821147B2 (en) 2012-11-19 2017-11-21 Abbott Cardiovascular Systems Inc. Multilayer balloon for a catheter
KR101509948B1 (en) 2013-10-23 2015-04-08 서울과학기술대학교 산학협력단 Apparatus for acquiring super wide angle panorama image for vehicle
JP2014033469A (en) * 2013-11-01 2014-02-20 Aisin Seiki Co Ltd Vehicle periphery monitoring device
KR101991080B1 (en) * 2015-05-27 2019-06-19 구글 엘엘씨 Omni-stereo capture and rendering of panoramic virtual reality content
US10375381B2 (en) 2015-05-27 2019-08-06 Google Llc Omnistereo capture and render of panoramic virtual reality content
KR20170123328A (en) * 2015-05-27 2017-11-07 구글 엘엘씨 Omni-stereo capture and rendering of panoramic virtual reality content
KR101683763B1 (en) * 2015-09-14 2016-12-07 주식회사 프레스토솔루션 Augmented Reality Robot Simulation System And Method Using 360 Degree Camera
JPWO2017130439A1 (en) * 2016-01-28 2018-11-08 鴻海精密工業股▲ふん▼有限公司 Vehicle image display system and vehicle equipped with the image display system
CN108602465A (en) * 2016-01-28 2018-09-28 鸿海精密工业股份有限公司 Vehicle image display system and the vehicle for being equipped with the image display system

Similar Documents

Publication Publication Date Title
JP2005167638A (en) Mobile surrounding surveillance apparatus, vehicle, and image transforming method
JP3627914B2 (en) Vehicle perimeter monitoring system
JP3773433B2 (en) Ambient monitoring device for moving objects
US7190259B2 (en) Surrounding surveillance apparatus and mobile body
US8947219B2 (en) Warning system with heads up display
US20090022423A1 (en) Method for combining several images to a full image in the bird&#39;s eye view
JP3916958B2 (en) Vehicle rear monitoring system and monitoring device
JP6723820B2 (en) Image generation apparatus, image display system, and image display method
US20130021453A1 (en) Autostereoscopic rear-view display system for vehicles
US11601621B2 (en) Vehicular display system
US20160129838A1 (en) Wide angle rear and side view monitor
JP3655119B2 (en) Status information providing apparatus and method
GB2397189A (en) Forward looking road monitoring system for vehicles
JP3231104U (en) Imaging equipment for mobile vehicles compatible with radar equipment
JP2008160508A (en) Visually-confirming camera-loaded vehicle having video camera mechanism with central focus on reference point on roof
US20240114253A1 (en) Movable apparatus and installation method for imaging device
JP2019038372A (en) Image display device
US20240114252A1 (en) Movable apparatus and installation method for imaging device
JP2023178051A (en) Movable body, method for controlling movable body, and computer program
JP2024078751A (en) IMAGE PROCESSING SYSTEM, IMAGE PROCESSING METHOD, AND COMPUTER PROGRAM
CN118118800A (en) Image processing system, image processing method, and storage medium
KR20160074109A (en) vehicle and control method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060125

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080613

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080617

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080807

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080902