JP3372944B2 - Monitoring system - Google Patents
Monitoring systemInfo
- Publication number
- JP3372944B2 JP3372944B2 JP2001217761A JP2001217761A JP3372944B2 JP 3372944 B2 JP3372944 B2 JP 3372944B2 JP 2001217761 A JP2001217761 A JP 2001217761A JP 2001217761 A JP2001217761 A JP 2001217761A JP 3372944 B2 JP3372944 B2 JP 3372944B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- vehicle
- camera
- virtual viewpoint
- cameras
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Landscapes
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Description
【0001】[0001]
【発明の属する技術分野】本発明は、車両に設置した複
数のカメラの撮像画像を用いて合成画像を生成する画像
処理技術に関するものであり、特に、車両運転の際の安
全確認の補助などに利用される監視システムに有効な技
術に属する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing technique for generating a composite image by using captured images of a plurality of cameras installed in a vehicle, and particularly to assist in safety confirmation when driving a vehicle. It belongs to the technology effective for the monitoring system used.
【0002】[0002]
【従来の技術】従来、車両の周囲をカメラを用いて監視
する装置として、カメラを車両のリアトランク部などに
後ろ向きに設置し、このカメラから得られた画像を運転
者に提示するシステムが知られている。これによって、
運転者は車両後方の様子をミラーを見ることなく知るこ
とができる。また最近では、ただ単にカメラ画像を提示
するだけでなく、カメラ画像にタイヤの移動軌跡を重ね
て提示するシステム(これを「従来方式1」と呼ぶ。)
も知られつつある。これによって、運転者は、車両後方
の様子を把握できるとともに、車両の進み先をも予測す
ることが可能になる。2. Description of the Related Art Conventionally, as a device for monitoring the surroundings of a vehicle using a camera, there is known a system in which the camera is installed rearward in a rear trunk portion of the vehicle and the image obtained from the camera is presented to a driver. Has been. by this,
The driver can see what is behind the vehicle without looking at the mirror. In addition, recently, a system that not only simply presents a camera image but also presents a tire movement track on the camera image (this is called "conventional method 1").
Is also becoming known. As a result, the driver can grasp the state behind the vehicle and also predict the destination of the vehicle.
【0003】ただし、従来方式1では、車両後方の様子
は分かるものの、それ以外の部分に関しては目視とミラ
ーに頼らざるを得ない。これに対し、自車両とその周囲
全体との位置関係を客観的に分かりやすく運転者に知ら
せるためのシステムとして、文献1:特開平11−78
692号公報に記載の装置などがある。この文献1で
は、複数台(8台)の車両用映像提供のためのカメラを
車両の周囲に取り付け、各カメラによって撮影された画
像を変形した画像(以下では「部分画像」という)を合
成して、自車両の周囲を一度に見渡すことができる新た
な画像を得るという方式(これを「従来方式2」と呼
ぶ。)が開示されている。特に、複数のカメラの撮影画
像を変形して配置する際に、部分画像同士が互いに隣接
する境界部分における連続性を保つことによって、自車
両と周囲の物体とのおおよその位置関係が把握しやすい
画像を、運転者に提供することができる。However, in the conventional method 1, although the rear side of the vehicle can be seen, it is necessary to rely on the visual check and the mirror for other portions. On the other hand, as a system for informing the driver of the positional relationship between the own vehicle and the entire surroundings in an objective and easy-to-understand manner, Reference 1: Japanese Patent Laid-Open No. 11-78.
The device described in Japanese Patent No. 692 is available. In this document 1, a plurality of (eight) cameras for providing video for a vehicle are attached around the vehicle, and images obtained by transforming the images captured by the cameras (hereinafter referred to as “partial images”) are combined. Then, a method of obtaining a new image capable of looking around the surroundings of the vehicle at once (this is referred to as "conventional method 2") is disclosed. In particular, when deforming and arranging images captured by a plurality of cameras, it is easy to grasp the approximate positional relationship between the vehicle and surrounding objects by maintaining continuity at the boundary between adjacent partial images. The image can be provided to the driver.
【0004】[0004]
【発明が解決しようとする課題】ところで、様々な運転
状況において、上述した従来方式によって合成した画像
を運転者に提示した場合に、以下のような問題が生じ
る。By the way, in various driving situations, when the driver is presented with an image synthesized by the above-mentioned conventional method, the following problems occur.
【0005】1.従来方式1の問題と解決すべき課題
従来方式1では、カメラ画像が車両後端部よりも後方部
分のうちの限られた角度の領域しか写さないため、自車
後端部よりも前の部分、例えば自車両の左右のボディと
周囲の物体との接触度合はドアミラーでしか判断できな
い。このため、その部分の接触度合と後方の様子の両方
を把握するためには、表示画像とドアミラーの併用を運
転者に強いることになり、運転者の負担が大きかった。1. Problems of Conventional Method 1 and Problems to be Solved In Conventional Method 1, since the camera image shows only a limited angle region of the rear portion of the vehicle, the front portion of the rear portion of the vehicle is The degree of contact between a part, for example, the left and right bodies of the vehicle and surrounding objects can be determined only by the door mirror. Therefore, in order to grasp both the degree of contact and the state of the rear of the portion, the driver is required to use the display image and the door mirror together, which imposes a heavy burden on the driver.
【0006】また、従来方式1は車両後方の限られた視
野の様子を表示するものである。したがって、広範囲の
状況を知る必要がある運転シーンにおいて利用するのに
は適当ではない。例えば、図4のように後退しながら大
きくハンドルを切って車両を道路に誘導させる場合、道
路の左右からの接近車両を確認するためには、実質的に
180度の後方視野を含む画像を運転者に提示すること
が必要となるが、従来方式1で提示される画像は視野が
狭いため、このような用途には全く使えない。Further, the conventional method 1 displays the state of a limited field of view behind the vehicle. Therefore, it is not suitable for use in a driving scene where it is necessary to know a wide range of situations. For example, when the vehicle is guided to the road by turning the steering wheel largely while moving backward as shown in FIG. 4, in order to confirm the approaching vehicle from the left and right of the road, the image including the rear view of substantially 180 degrees is driven. Although it is necessary to present the image to the person, the image presented by the conventional method 1 has a narrow field of view and cannot be used for such an application at all.
【0007】したがって、解決すべき第1の課題は、図
4のようなケースにおいて、見ただけで安心して車を運
転できるような合成画像を運転者に提供することであ
る。Therefore, the first problem to be solved is to provide the driver with a composite image in which the driver can drive the car with a sense of security just by looking at the case as shown in FIG.
【0008】2.従来方式2の問題と解決すべき課題
・第1の問題:表示範囲
従来方式2では、自車の直近周囲の位置関係を分かりや
すく提示するために、周囲の様子をあたかも自車上方か
ら見下ろしたような画像を提示することだけを開示して
いる。ところが、自車の近傍とそれ以外の部分との両方
が同時に把握できるような画像の提示方法に関しては、
何ら開示されていない。したがって、次の例(a),
(b)のような運転状況においては、従来方式2による
合成画像を提示しただけでは、運転の支援には十分であ
るとは言えない。2. Problems of Conventional Method 2 and Problems to be Solved-First Problem: Display Range In Conventional Method 2, the surroundings are looked down from above as if they were in order to present the positional relationship in the immediate surroundings of the vehicle in an easy-to-understand manner. It only discloses presenting such images. However, regarding the method of presenting images so that both the vicinity of the vehicle and other parts can be grasped at the same time,
No disclosure is made. Therefore, the following example (a),
In the driving situation as shown in (b), the presentation of the composite image according to the conventional method 2 cannot be said to be sufficient to support driving.
【0009】(a)路肩などへの幅寄せ
路肩などへの幅寄せを行う場合、運転者に見せる画像に
対して次の2つの点が要求される。すなわち、路肩への
寄せ具合がどのくらいかという点と、そのまま前進また
は後退したときに、その進行方向の先に、例えば電柱や
発券機などの障害物がないかどうか、対向車が来ていな
いかどうか、またそれらの存在が確認されたときに、接
触せずにかわせるかどうかという点である。(A) Width adjustment to the road shoulder, etc. When performing width adjustment to the road shoulder or the like, the following two points are required for the image displayed to the driver. In other words, how close the road is to the shoulder, and whether there is an obstacle, such as a telephone pole or ticket machine, ahead of the direction of travel when moving forward or backward as it is, and whether an oncoming vehicle is coming. The question is whether or not they should be contacted when they are confirmed.
【0010】ところが、見下ろし画像では見えている範
囲が限られているので、路肩への寄せ具合を詳しく見よ
うと思えば直近の周囲だけを写した画像が必要になる
し、一方、進行方向の先を見るためには少なくとも数メ
ートルから十数メートル先の前方まで見える画像が必要
になる。いずれにしても、一個の画像で、両方の要求を
満たすことはできない。However, since the viewable area is limited in the view-down image, it is necessary to obtain an image of only the immediate surroundings in order to look closely at the condition of approaching to the road shoulder. In order to see, you need an image that can be seen at least several meters to a dozen meters ahead. In any case, one image cannot satisfy both requirements.
【0011】したがって、解決すべき第2の課題は、路
肩などへの幅寄せのようなケースにおいて、自車の路肩
への寄せ具合だけでなく、前進または後退したときの進
行方向の先の様子も同時に分かるような合成画像を、運
転者に提供することである。Therefore, the second problem to be solved is not only how the vehicle approaches the shoulder of the road in the case of approaching the shoulder of the road, but also the state of the forward direction when the vehicle moves forward or backward. Is to provide the driver with a composite image that can be seen at the same time.
【0012】(b)切り返しを含む駐車
駐車を行うにあたって該見下ろし画像を提示する場合、
駐車操作の最初の段階で緩やかに後退する際には、後方
の様子の確認が必要となる。ところが見下ろし画像では
見えている範囲が限られているので、上記後退時の後方
確認のためにはミラーを使わざるをえなくなり、ドライ
バーの負担が増える。また駐車において切り返し操作
(前後の細かな移動によって車を目的の場所に誘導させ
る操作)を頻繁に行う場合では、後方確認のみならず前
方確認も必要となる。(B) In the case of presenting the looking-down image for parking including the turning back,
It is necessary to confirm the state of the rear when the vehicle slowly moves backward in the first stage of parking operation. However, since the viewable area is limited in the looking-down image, the mirror must be used for rearward confirmation when the vehicle moves backward, and the driver's burden increases. In addition, in the case of frequently performing a turning operation (an operation of guiding the vehicle to a desired place by a fine movement forward and backward) during parking, not only backward confirmation but also forward confirmation is required.
【0013】したがって、解決すべき第3の課題は、切
り返しを伴うような駐車において、周囲の状況だけでな
く、前進もしくは後退した時の進行方向の先の様子も同
時に分かるような合成画像を運転者に提供することであ
る。Therefore, the third problem to be solved is to drive a composite image so that not only the surrounding conditions but also the forward direction when the vehicle moves forward or backward can be understood at the same time when the vehicle is turned back. It is to provide to the person.
【0014】・第2の問題:物体の消失
物体の消失とは、境界部分で、少なくとも路面の部分が
連続になるように画像を変形するために、その変形に順
じて変形される立体物が、部分画像のレイアウトのため
に削除されるという問題である。Second problem: Disappearance of an object Disappearance of an object is a three-dimensional object which is deformed in accordance with the deformation in order to deform the image so that at least the road surface portion is continuous at the boundary portion. Is deleted due to the layout of the partial image.
【0015】図17(a)は車両の右後隅に立っている
ポールP1を示している。このポールP1は図2に示す
カメラ2とカメラ3の両方から撮影されているとする
と、カメラ2の撮影画像におけるポールP1Aは画像変
形によってポールP1の接地点を基準に下に伸びるよう
に歪む。一方、カメラ3の撮影画像におけるポールP1
Bは画像変形によってポールP1の接地点を基準に右に
伸びるように歪む。ところで、それぞれのポールP1
A,P1Bはいずれも部分画像として用いない領域に伸
びているため、伸びた部分が削除され、結果的にポール
P1が地面と接する部分しか合成画像上には残らない
(図17(b))。したがって、合成画像では、実際に
存在するポールが認識困難になる。これが物体の消失の
問題を引き起こす原因である。FIG. 17 (a) shows a pole P1 standing at the rear right corner of the vehicle. Assuming that the pole P1 is photographed by both the camera 2 and the camera 3 shown in FIG. 2, the pole P1A in the photographed image of the camera 2 is distorted by image deformation so as to extend downward with respect to the grounding point of the pole P1. On the other hand, the pole P1 in the image captured by the camera 3
B is distorted so as to extend rightward with respect to the grounding point of the pole P1 due to image deformation. By the way, each pole P1
Since both A and P1B extend to the area not used as a partial image, the extended portion is deleted, and as a result, only the portion where the pole P1 contacts the ground remains on the composite image (FIG. 17 (b)). . Therefore, in the composite image, it is difficult to recognize the pole that actually exists. This is the cause of the disappearance problem.
【0016】したがって、解決すべき第4の課題は、上
述の問題を回避し、自車と周囲の物体とのおおよその位
置関係、および周囲の物体との距離が、同時に把握でき
るような合成画像を運転者に提供することである。Therefore, a fourth problem to be solved is to avoid the above-mentioned problem, and to obtain an approximate position relationship between the vehicle and surrounding objects and a distance between the surrounding objects at the same time so that the composite image can be grasped. Is provided to the driver.
【0017】・第3の問題:境界の不連続性
従来方式2では、隣り合う部分画像同士の境界での連続
性を保持するようにそれぞれのカメラ画像の変形を行う
が、境界のすべての部分で連続性を保つことは原理的に
困難である。したがって本方式では、少なくとも路面部
分のものが違和感無く把握できるように路面部分での連
続性を保つように変形することを開示している。しかし
ながら、これにより路面以外の物体は引き伸ばされるよ
うに大きくゆがむことになり、これが部分画像の境界部
分に位置する路面以外の物体が該境界で不連続になる、
という問題を引き起こす。たとえば、図18では、カメ
ラ2とカメラ3の画像をそれぞれ変形して得た部分画像
同士の境界に位置する駐車中の車が、該境界を境に不連
続になってしまい、結果的に不明瞭な画像になってしま
っている例を示している。したがってこのような不明瞭
な画像では周囲の物体との距離がつかめないため、ドラ
イバーは結局、ミラーなどを見てそれを確認する作業を
強いられることになり、負担が大きくなる。Third problem: boundary discontinuity In the conventional method 2, each camera image is deformed so as to maintain continuity at the boundary between adjacent partial images, but all parts of the boundary are distorted. It is theoretically difficult to maintain continuity at. Therefore, the present method discloses that at least the road surface portion is deformed so as to maintain continuity on the road surface portion so that it can be grasped without a feeling of strangeness. However, this causes the object other than the road surface to be greatly distorted so as to be stretched, and this causes the object other than the road surface located at the boundary portion of the partial image to be discontinuous at the boundary,
Causes the problem. For example, in FIG. 18, the parked car located at the boundary between the partial images obtained by transforming the images of the cameras 2 and 3 becomes discontinuous at the boundary, and as a result An example is shown in which the image is clear. Therefore, in such an unclear image, the distance to the surrounding objects cannot be grasped, and the driver is eventually forced to look at the mirror or the like to confirm it, which increases the burden.
【0018】したがって、解決すべき第5の課題は、前
記問題を回避し、少なくともカメラ画像において安全運
転に必要な情報を必ず含むような合成画像をドライバー
に提供することである。Therefore, a fifth problem to be solved is to avoid the above problem and provide the driver with a synthetic image which at least includes information necessary for safe driving in the camera image.
【0019】また、上記の部分画像同士の境界における
不連続性の問題を鑑みると、様々な運転シーンにおい
て、合成画像のどこに境界を持ってくるか、が合成画像
の有用性に大きく関係してくる。一般的に、複雑な運転
操作の多く、例えば駐車(縦列、並列)や幅寄せなどに
おいては、運転者が詳細状況を知りたい場所は、車両の
前後よりもむしろ左右の側方180度の領域に集中する
ことが、発明者らが行った被験者10人程度を対象に行
った実験によって分かっている。Further, in view of the above-mentioned problem of discontinuity at the boundary between the partial images, where to bring the boundary in the composite image in various driving scenes is greatly related to the usefulness of the composite image. come. Generally, in many complicated driving operations, such as parking (parallel or parallel) or side-by-side driving, the place where the driver wants to know the detailed situation is 180 degrees to the left and right of the vehicle rather than the front and rear. It is known from the experiments conducted by the inventors about 10 subjects that the present invention is concentrated.
【0020】したがって、車両の左右の側方がより連続
的になるような合成画像を提示することが第6の課題で
あると考えられるが、従来方式2ではかかる課題に対す
る解決策について何ら開示されていない。Therefore, it is considered that the sixth problem is to present a combined image in which the left and right sides of the vehicle are more continuous, but the conventional method 2 discloses nothing about the solution to such problem. Not not.
【0021】[0021]
【課題を解決するための手段】前記の課題を解決するた
めに、請求項1の発明が講じた解決手段は、監視システ
ムとして、車両の周囲を撮影する少なくとも1つのカメ
ラと、前記カメラの撮影画像を入力とし、このカメラ画
像から合成画像を生成し、表示装置に表示させる画像処
理部とを備え、前記画像処理部は、当該車両の少なくと
も1つのタイヤの接地部分を含む車両直近部分の拡縮率
が車両周辺部分の拡縮率よりも相対的に高くなるよう
に、かつ、当該車両の側面に沿った部分が直線性を有す
るように、合成された合成画像を表示するモードを有す
るものである。[Means for Solving the Problems] In order to solve the above-mentioned problems, a solution means provided by the invention of claim 1 is, as a surveillance system, at least one camera for photographing the surroundings of a vehicle, and the photographing of said camera. An image processing unit that receives an image, generates a composite image from the camera image, and causes a display device to display the composite image, the image processing unit including scaling of a portion near a vehicle including a grounding portion of at least one tire of the vehicle. It has a mode for displaying a combined image so that the ratio is relatively higher than the expansion / contraction ratio of the peripheral portion of the vehicle and the portion along the side surface of the vehicle has linearity. .
【0022】請求項1の発明によると、当該車両の少な
くとも1つのタイヤの接地部分を含む車両直近部分が、
車両周辺部分よりも、拡縮率が相対的に高い合成画像が
表示される。このため、利用者は、車両の直近直下の詳
細な状況と進行方向の先の様子とを、同じ画像から同時
に確認することが可能になる。According to the first aspect of the present invention, the portion of the vehicle in the immediate vicinity of the vehicle including the ground contact portion of at least one tire is
A composite image with a relatively high scaling ratio is displayed as compared with the surrounding area of the vehicle. Therefore, the user can simultaneously check the detailed situation immediately under the vehicle and the state ahead of the traveling direction from the same image.
【0023】また、前記の第3の課題を解決するため
に、請求項2の発明が講じた解決手段は、監視システム
として、車両の周囲を撮影する少なくとも1つのカメラ
と、前記カメラの撮影画像を入力とし、このカメラ画像
から、仮想視点から見た画像を生成し、表示装置に表示
させる画像処理部とを備え、前記画像処理部は、車両の
移動方向または移動しうる方向の画像を前記仮想視点画
像との位置関係を保持しながら前記仮想視点画像と並べ
て表示するモードを有するものである。Further, in order to solve the above-mentioned third problem, the solution means taken by the invention of claim 2 is, as a monitoring system, at least one camera for photographing the surroundings of a vehicle, and a photographed image of said camera. And an image processing unit for generating an image viewed from a virtual viewpoint from this camera image and displaying the image on a display device, wherein the image processing unit is an image in a moving direction of a vehicle or a movable direction. It has a mode of displaying side by side with the virtual viewpoint image while maintaining the positional relationship with the virtual viewpoint image.
【0024】請求項2の発明によると、車両の移動方向
または移動しうる方向の画像が、仮想視点画像との位置
関係を保持しながら並べて表示される。このため、利用
者は、車両周囲の状況だけでなく、前進または後退した
ときの進行方向の先の様子までもが、同じ画像で同時に
確認することが可能になる。According to the second aspect of the present invention, the images in the moving direction or the movable direction of the vehicle are displayed side by side while maintaining the positional relationship with the virtual viewpoint image. Therefore, the user can simultaneously check not only the situation around the vehicle but also the state in the traveling direction when moving forward or backward with the same image.
【0025】また、前記の第4の課題を解決するため
に、請求項3の発明が講じた解決手段は、監視システム
として、車両の周囲を撮影する複数のカメラと、前記各
カメラの撮影画像を入力とし、これらのカメラ画像か
ら、仮想視点から見た画像を生成し、表示装置に表示さ
せる画像処理部とを備え、前記複数のカメラは撮影範囲
が重複する第1および第2のカメラを含み、前記画像処
理部は、前記第1のカメラを用いかつ前記第2のカメラ
を用いないで作成した第1の仮想視点画像と、前記第2
のカメラを用いかつ前記第1のカメラを用いないで作成
した第2の仮想視点画像とを生成可能に構成されている
ものである。Further, in order to solve the above-mentioned fourth problem, the solution means taken by the invention of claim 3 is, as a monitoring system, a plurality of cameras for photographing the surroundings of a vehicle, and images taken by the respective cameras. And an image processing unit that generates an image viewed from a virtual viewpoint from these camera images and causes the display device to display the image, and the plurality of cameras include first and second cameras having overlapping shooting ranges. Including the first virtual viewpoint image created using the first camera and not using the second camera; and the second virtual viewpoint image.
And a second virtual viewpoint image created without using the first camera.
【0026】請求項3の発明によると、撮影範囲が重複
する第1および第2のカメラについて、一方のカメラを
用い、かつ、他方のカメラを用いないで作成した複数の
仮想視点画像が、生成可能となる。すなわち、各仮想視
点画像において、作成に用いた一方のカメラの撮影範囲
における,他方のカメラとの重複部分と非重複部分とが
ともに含まれているので、重複部分に存在する物体が仮
想視点画像上で消失することはない。このため、仮想視
点画像の連続性を保つために施すカメラ画像の加工に起
因して生じる、撮影範囲の重複部分における物体消失の
問題を、回避することができる。したがって、安全運転
に必要な情報を必ず含んだ画像を、運転者に提供するこ
とが可能になる。According to the third aspect of the present invention, for the first and second cameras whose photographing ranges overlap, a plurality of virtual viewpoint images created using one camera and not the other camera are generated. It will be possible. That is, since each virtual viewpoint image includes both the overlapping portion and the non-overlapping portion with the other camera in the shooting range of the one camera used for the creation, the object existing in the overlapping portion is the virtual viewpoint image. It never disappears above. Therefore, it is possible to avoid the problem of object disappearance in the overlapping portion of the shooting ranges, which occurs due to the processing of the camera images performed to maintain the continuity of the virtual viewpoint images. Therefore, it becomes possible to provide the driver with an image including information necessary for safe driving.
【0027】請求項4の発明では、前記請求項3の監視
システムにおける画像処理部は、前記第1および第2の
仮想視点画像を同一画面に並べて表示するモードを有す
るものとする。According to the invention of claim 4 , the image processing unit in the surveillance system of claim 3 has a mode for displaying the first and second virtual viewpoint images side by side on the same screen.
【0028】請求項5の発明では、前記請求項3の監視
システムにおける第1の仮想視点画像は、車両の側方に
設置されたカメラによって撮影された画像のみを用いた
仮想視点画像であり、第2の仮想視点画像は車両の前後
に設置されたカメラによって撮影された画像のみを用い
た仮想視点画像であるものとする。In the invention of claim 5 , the first virtual viewpoint image in the monitoring system of claim 3 is a virtual viewpoint image using only images captured by a camera installed on the side of the vehicle, It is assumed that the second virtual viewpoint image is a virtual viewpoint image using only images captured by cameras installed in front of and behind the vehicle.
【0029】[0029]
【発明の実施の形態】以下、本発明の実施の形態につい
て、図面を参照しながら説明する。まずそれぞれの実施
形態を実現するために必要な、本発明に係る監視システ
ムの全体構成について説明し、つづいて本発明に係る各
種表示画面態様例について詳細を説明する。BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described below with reference to the drawings. First, the overall configuration of the monitoring system according to the present invention, which is necessary to implement each embodiment, will be described, and then various examples of various display screens according to the present invention will be described in detail.
【0030】図1は本発明に係る監視システムの構成を
示すブロック図である。図1に示す監視システムにおい
て、画像処理部20は、カメラ11から出力された複数
のカメラ画像を入力とし、これらを変形・合成して新た
な画像を生成する。この合成画像は表示装置30によっ
て表示される。画像処理部20によって、本発明に係る
画像処理装置が構成される。FIG. 1 is a block diagram showing the structure of a monitoring system according to the present invention. In the monitoring system shown in FIG. 1, the image processing unit 20 receives a plurality of camera images output from the camera 11, transforms and combines these, and generates a new image. This composite image is displayed by the display device 30. The image processing unit 20 constitutes an image processing apparatus according to the present invention.
【0031】なお、本願明細書では、「合成画像」と
は、複数のカメラ画像から生成された画像だけでなく、
1つのカメラ画像を変形・合成することによって生成し
た画像をも含むものとする。In the present specification, the "composite image" is not limited to an image generated from a plurality of camera images,
An image generated by transforming and combining one camera image is also included.
【0032】本発明の表示装置30は、典型的には液晶
ディスプレイであるが、プラズマディスプレイ等の他の
表示デバイスを用いることもできる。また、本発明のデ
ィスプレイは、車両搭載型のGPS端末ディスプレイ
(いわゆるカーナビゲーションシステムのディスプレ
イ)と共用したものであってもよいし、これとは別に用
意されたものであってもよい。The display device 30 of the present invention is typically a liquid crystal display, but other display devices such as a plasma display can also be used. The display of the present invention may be shared with a vehicle-mounted GPS terminal display (so-called car navigation system display), or may be prepared separately.
【0033】撮像部10は、典型的にはCCD,CMO
Sデバイス等の固体撮像素子をもつ、カラーまたはモノ
クロのデジタルカメラである。また、撮影手段は、たと
えばレンズと、プリズムまたはミラーとの組み合わせに
より構成され、レンズ、プリズムまたはミラーへの入射
光が、所定光路を通って撮影手段から離れた位置にある
撮像素子に伝達されるように構成されていてもよい。The image pickup section 10 is typically a CCD or CMO.
It is a color or monochrome digital camera having a solid-state image sensor such as an S device. Further, the photographing means is composed of, for example, a combination of a lens and a prism or a mirror, and the incident light on the lens, the prism or the mirror is transmitted to the image pickup element located at a position distant from the photographing means through a predetermined optical path. It may be configured as follows.
【0034】図2はカメラの配置の例、図3は図2に示
す各カメラの撮像画像の例である。図2において、WL
1〜WL5は白線、P1〜P4はポールである。図2の
例では2台のペアカメラをフロントグリル、左右ドアミ
ラー、リアトランクの合計4箇所8台使用した場合を示
している。図2に示したカメラ配置は、車の前後左右の
4面のそれぞれの180度視野の画像を得るためで、現
状のカメラでは一つで180度の視野を確保することが
できないため、便宜的に2台のカメラをペアにして実質
的に180度の視野を得るようにしたものである。FIG. 2 shows an example of the arrangement of the cameras, and FIG. 3 shows an example of the image picked up by each camera shown in FIG. In FIG. 2, WL
1 to WL5 are white lines, and P1 to P4 are poles. The example of FIG. 2 shows a case where two pair cameras, that is, a front grill, left and right door mirrors, and a rear trunk, are used at a total of four locations, that is, eight cameras. The camera arrangement shown in FIG. 2 is for the purpose of obtaining an image of 180-degree field of view on each of the four front, rear, left, and right sides of the car. The two cameras are paired to obtain a field of view of substantially 180 degrees.
【0035】画像処理部20は、図3に示すような8枚
のカメラ画像(ペアカメラを1台にした場合は4枚のカ
メラ画像)を変形・合成し、例えば車両上方から鉛直下
方に見下ろしたような合成画像を生成する。合成画像の
生成のためには、画像変形処理や変形された画像の必要
な部分を切り取った部分画像の合成処理(境界部分のス
ムージングなどの処理(以下、境界処理)を含む)が必
要になるが、図1の構成では、マッピングテーブル参照
部21を備え、撮像画像の加工を一つの工程で行うため
に、マッピングテーブルMPTを利用する。The image processing unit 20 transforms and synthesizes eight camera images (four camera images when one pair camera is used) as shown in FIG. 3, and looks down from above the vehicle vertically downward, for example. To generate a composite image like this. In order to generate a composite image, image modification processing and composition processing of partial images obtained by cutting necessary parts of the modified image (including processing such as boundary smoothing (hereinafter, boundary processing)) are required. However, in the configuration of FIG. 1, the mapping table reference unit 21 is provided, and the mapping table MPT is used in order to process the captured image in one step.
【0036】画像処理部20はカメラ1〜Nからの撮影
画像を入力し、これら撮影画像を加工する。ここでの加
工は、画像変形切り出し処理、切り出された部分画
像の合成処理(境界処理を含む)である。これらのと
の処理は、それぞれ別々になされてもよいし、全部ま
たは一部が1つの工程によりなされてもよい。図1で
は、撮影画像の加工を一つの工程で行うために、マッピ
ングテーブルを備えた構成をなしている。The image processing section 20 inputs photographed images from the cameras 1 to N and processes these photographed images. The processing here is image transformation cutout processing, and combining processing of cutout partial images (including boundary processing). The treatments with these may be performed separately, or all or part of them may be performed in one step. In FIG. 1, a mapping table is provided in order to process a captured image in one step.
【0037】「マッピングテーブル」とは、合成画像の
画素と、各カメラ画像の画素データとの対応関係が記述
されたテーブルのことをいい、合成画像の生成処理を高
速に行うために用いられる。このようなマッピングテー
ブルを、幾何変換などを用いた計算や手作業などによっ
てあらかじめ作成しておくことによって、所望の合成画
像を高速に生成することができる。そして、マッピング
テーブルを替えることによって、画面表示モードを切り
替えることができる。The "mapping table" is a table in which the correspondence between the pixels of the composite image and the pixel data of each camera image is described, and is used to perform the process of generating the composite image at high speed. A desired composite image can be generated at high speed by creating such a mapping table in advance by calculation using geometric transformation or the like or by manual work. Then, the screen display mode can be switched by changing the mapping table.
【0038】マッピングテーブルは具体的には、例えば
ROM(EEPROMなどの書きこみ・消去可能なRO
Mを含む)、またはRAMに格納されている。マッピン
グテーブルの格納は、例えば、画像処理部内のプロセッ
サが計算で求めたマッピングデータをROMまたはRA
Mに書きこむことによって実現してもよいし、ファーム
ウェアとして提供されるマッピングテーブルデータを、
通信回線やディスクドライブなどのデータ転送手段を用
いて、RAMまたはROMに書きこむようにしてもよ
い。More specifically, the mapping table is, for example, a ROM (such as an EEPROM, which is a writable / erasable RO).
(Including M) or stored in RAM. The mapping table is stored, for example, by storing the mapping data calculated by the processor in the image processing unit in the ROM or RA.
It may be realized by writing in M, or mapping table data provided as firmware,
The data may be written in the RAM or the ROM by using a data transfer means such as a communication line or a disk drive.
【0039】次に、本発明に係る各種表示画面態様例に
ついて詳細を説明する。Next, examples of various display screen modes according to the present invention will be described in detail.
【0040】(第1の実施形態)
第1の実施形態は上述の第1の課題を解決するためにな
された発明の一態様であり、例えば図4のように、後退
しながら大きくハンドルを切って車両を道路に誘導させ
る場合、道路の左右からの接近車両を確認するために用
いられる。(First Embodiment) The first embodiment is an aspect of the invention made to solve the above-mentioned first problem. For example, as shown in FIG. 4, the handle is turned largely while retreating. When a vehicle is guided to a road by means of this, it is used to confirm approaching vehicles from the left and right of the road.
【0041】次に表示画面態様の例について説明する。Next, an example of the display screen mode will be described.
【0042】図5(a)は確認に用いるための本実施形
態に係る画面態様の一例であり、具体的には図2に示す
カメラ3およびカメラ7で撮影された画像を用いて、車
両後方の左右180度の視野を持つ画像を反転させて表
示し、これに自車の後退時の走行軌跡41を重ねて表示
した例である(合成の元になる撮影画像は図示しな
い)。図5(a)から分かるように、車両の後端が車両
に垂直に通っている道路に対してぎりぎりに直面してい
る状況において、その道路の一方の端から他方の端まで
すなわち左右180度を見ることができる。したがっ
て、運転者はこの画像を見ることによって、例えば実際
に左側から接近している他の車両42の様子を、運転席
に居ながらにして把握できる。FIG. 5A is an example of a screen mode according to the present embodiment for use in confirmation. Specifically, the images taken by the cameras 3 and 7 shown in FIG. This is an example in which an image having a field of view of 180 degrees to the left and right is inverted and displayed, and a traveling locus 41 when the own vehicle retreats is displayed in an overlapping manner (the photographed image that is the basis of the synthesis is not shown). As can be seen from FIG. 5 (a), in a situation where the rear end of the vehicle is barely facing the road passing vertically through the vehicle, from one end of the road to the other end, that is, 180 degrees left and right. Can be seen. Therefore, the driver can understand the state of the other vehicle 42 approaching from the left side, for example, while staying in the driver's seat by looking at this image.
【0043】図5(b)は本実施形態に係る画面態様の
他の一例である。この態様は、カメラや画面の解像度が
低いなどの理由によって、遠方から近づきつつある車ま
での距離が分かりにくい場合に用いるとよい。具体的に
は、遠方のエリア(破線矩形領域43)を拡大し、画面
中の別な場所にサブウインドウ(実線矩形領域44)と
して表示する。これにより、全体画像では遠方と近傍と
を一度に把握することができ、かつ、遠方の様子はサブ
ウインドウによって確認することが可能になる。サブウ
インドウは全体画像の上に貼り付けるので、運転に重要
な情報がこれによって隠されることをできるだけ防ぐた
めに、貼り付け場所を予め決めておくとよい。FIG. 5B is another example of the screen mode according to the present embodiment. This mode may be used when the distance from a distant vehicle to an approaching vehicle is difficult to understand due to a low resolution of a camera or a screen. Specifically, the distant area (broken line rectangular area 43) is enlarged and displayed as a sub-window (solid line rectangular area 44) in another place on the screen. As a result, it is possible to grasp the distance and the vicinity in the entire image at the same time, and it is possible to confirm the state of the distance from the sub window. Since the sub-window is pasted on the whole image, it is advisable to decide the pasting place in advance in order to prevent information important for driving from being hidden by this as much as possible.
【0044】図5(c)も本実施形態に係る画面態様の
他の一例である。この態様は、遠方から近づいている車
までの距離が分かりにくい場合に、距離を示す補助線を
画像に重複して表示するものである。これにより、接近
車のおおよその距離を知ることができる。図5(c)で
は実線45、細かい破線46および粗い破線47によっ
て、それぞれ、自車から左右に約2m、約5mおよび約
10mの位置が示されている。FIG. 5C is another example of the screen mode according to this embodiment. In this mode, when it is difficult to understand the distance from a distant vehicle to an approaching vehicle, an auxiliary line indicating the distance is displayed overlapping the image. As a result, the approximate distance of the approaching vehicle can be known. In FIG. 5C, a solid line 45, a fine broken line 46, and a rough broken line 47 indicate positions of about 2 m, about 5 m, and about 10 m to the left and right of the own vehicle, respectively.
【0045】次に、このような180度の視野を持つ画
像を作成する方法を簡単に説明する。Next, a method of creating an image having such a field of view of 180 degrees will be briefly described.
【0046】図6はペアカメラの画像を円筒モデルにそ
れぞれ投影し、その投影画像をそのまま長方形の画像面
に端から並べて行くようにして、視野180度のパノラ
マ画像を得る方法を示している。この方法では、縦の幅
がカメラの視野範囲における角度に対応するため、カメ
ラのどの方向の向きも同じ倍率の画像が得られる。FIG. 6 shows a method of obtaining a panoramic image with a field of view of 180 degrees by projecting the images of the pair cameras on a cylindrical model and arranging the projected images as they are on the rectangular image plane from the end. In this method, since the vertical width corresponds to the angle in the visual field range of the camera, an image of the same magnification can be obtained in any direction of the camera.
【0047】また、図7は円筒以外のモデルとしてお碗
形状のモデルを用いて視野180度の画像を得る方法を
示している。カメラ画像をモデルに投影する点は図6と
同様であるが、その投影画像を見る仮想視点を設け、透
視投影変換によって画像を作成している点が異なる。こ
のモデルでは、お碗の形状を変形したり仮想視点の位置
を移動させることによって、自車の真後ろ方向を拡大し
周辺方向を縮小した画像を作成したり、逆に自車の真後
ろ方向を縮小し周辺方向を拡大した画像を作成すること
も可能である。FIG. 7 shows a method of obtaining an image with a field of view of 180 degrees by using a bowl-shaped model as a model other than a cylinder. The point of projecting the camera image on the model is the same as that of FIG. 6, except that a virtual viewpoint for viewing the projected image is provided and the image is created by perspective projection conversion. In this model, by deforming the shape of the bowl or moving the position of the virtual viewpoint, you can create an image in which the direction directly behind the vehicle is enlarged and the peripheral direction is reduced, or conversely, the direction directly behind the vehicle is reduced. It is also possible to create an image in which the peripheral direction is enlarged.
【0048】なお、本実施例では、後方180度の視野
を表示する例を示したが、実質的に視野を180度程度
持つことで実用上問題がなければ、必ずしも180度を
含むようにカメラを設置する必要はなく、それより若干
小さめの視野角でも問題ない。また当然のことながら、
空が映っている部分など、後方安全確認に不要な部分に
関しては切りとって表示してもかまわない。In the present embodiment, an example of displaying a field of view of 180 degrees rearward is shown. However, if there is practically no problem in having a field of view of about 180 degrees, the camera should always include 180 degrees. Need not be installed, and a slightly smaller viewing angle does not cause any problem. And of course,
Parts that are unnecessary for rearward safety confirmation, such as the part where the sky is visible, may be cut off and displayed.
【0049】(第2の実施形態)
第2の実施形態は上述の第2の課題を解決するためにな
された発明の一態様であり、例えば路肩などへの幅寄せ
のようなケースで、自車の路肩への寄せ具合だけでな
く、前進または後退したときの進行方向の先の様子も同
時に分かるような合成画像を運転者に提供するものであ
る。(Second Embodiment) The second embodiment is an aspect of the invention made to solve the above-mentioned second problem. For example, in the case of width adjustment to a road shoulder, The present invention provides the driver with a composite image that shows not only how close the vehicle is to the road shoulder but also the state of the forward direction when the vehicle moves forward or backward.
【0050】次に表示画面態様の例について説明する。Next, an example of the display screen mode will be described.
【0051】図8(a),(b)は図2に示すカメラ
1,2,5,6の4個のカメラを用いて作成した本実施
形態に係る画面態様を示したものである(合成の元にな
る撮影画像は図示しない)。自車両の右側の画像はカメ
ラ1とカメラ2を、また左側の画像はカメラ5とカメラ
6の画像を用いてそれぞれ作られたものである。それぞ
れの合成画像は、タイヤの接地部分を含む車両直近部分
の拡縮率が、車両周辺部分の拡縮率よりも相対的に高く
なるように、合成されている。さらに、車両直近部分か
ら車両周辺部分にむけて離れるにつれて、拡縮率が低く
なっている。FIGS. 8A and 8B show screen modes according to the present embodiment, which are created by using the four cameras 1, 2, 5, 6 shown in FIG. 2 (composite). The image taken as the source is not shown). The image on the right side of the host vehicle is made by using the cameras 1 and 2, and the image on the left side is made by using the images of the cameras 5 and 6, respectively. The respective synthetic images are synthesized such that the enlargement / reduction rate of the vehicle immediate portion including the ground contact portion of the tire is relatively higher than the enlargement / reduction rate of the vehicle peripheral portion. Further, the scaling ratio decreases as the distance from the vehicle nearest portion to the vehicle peripheral portion increases.
【0052】このような画像の合成方法の例を簡単に説
明する。このような画像の合成を簡単に作成する一つの
有効な方法は、第1の実施形態における画像合成と同様
に、モデルを使って合成する方法である。例えば図7に
示したお椀のモデルを用いると、図8(a)の左側の画
像は次のようにして合成できる。
1. お椀のモデルの底が車のカメラ5とカメラ6との
間の位置の路面上に接するように、お椀モデルを作成す
る。このとき、お椀モデルの大きさは、車がお椀の内面
に完全に囲まれる程度の大きさにしておく。
2. カメラ5とカメラ6で撮影された画像を、それぞ
れお椀の内面に投影する。
3. 仮想視点を、カメラ5とカメラ6の間の位置で上
方(例えば4m)に下向きに設置し、2.の処理でお椀
に投影されたカメラ5、カメラ6の画像を、前記仮想視
点から眺める。An example of such an image synthesizing method will be briefly described. One effective method for easily creating such an image composition is a method of composition using a model, similar to the image composition in the first embodiment. For example, by using the bowl model shown in FIG. 7, the image on the left side of FIG. 8A can be synthesized as follows. 1. The bowl model is created so that the bottom of the bowl model is in contact with the road surface at a position between the camera 5 and the camera 6 of the car. At this time, the size of the bowl model should be such that the car is completely surrounded by the inner surface of the bowl. 2. The images taken by the cameras 5 and 6 are projected on the inner surface of the bowl, respectively. 3. 1. The virtual viewpoint is installed downward (upwardly, for example, 4 m) between the cameras 5 and 6, and 2. The images of the cameras 5 and 6 projected on the bowl by the processing of 1 are viewed from the virtual viewpoint.
【0053】これら3つのステップの処理によって、図
8(a)の左側に示したような、タイヤの接地部分を含
む車両直近部分の拡縮率が、車両周辺部分の拡縮率より
も相対的に高くなるように合成された画像を得ることが
できる。By the processing of these three steps, the enlargement / reduction rate of the portion near the vehicle including the ground contact portion of the tire as shown on the left side of FIG. 8A is relatively higher than the enlargement / reduction rate of the peripheral portion of the vehicle. It is possible to obtain an image synthesized as
【0054】ここで、なぜお椀モデルを用いると周辺部
分がより縮小されるかというと、カメラ画像を投影する
モデル面(本例ではお椀の内面)が仮想視点の向き(本
例では真下方向)に平行に近づいていくにつれて、モデ
ル面に投影された画像が縮小される、という幾何学的な
性質に基づいているからである。Here, the reason why the peripheral portion is further reduced when the bowl model is used is that the model plane on which the camera image is projected (the inner surface of the bowl in this example) is the direction of the virtual viewpoint (directly downward in this example). This is because it is based on the geometrical property that the image projected on the model surface is reduced as it approaches in parallel with.
【0055】上記方式の大きなメリットは、お椀のモデ
ルを変形したりすることで、車両直近部分の拡縮率に対
する車両周辺部分の拡縮率を自由に決められる点があげ
られる。例えば、お椀のモデルが円形である場合、お椀
の底に相当する部分を中心にして、方向に関係なく、そ
こから離れるに従って縮小された画像が得られる。ま
た、お椀のモデルを底の場所は同じままにしておき形だ
け楕円形にする。この楕円形の長軸方向が車の側面に一
致するようにすると、お椀の底に相当する部分を中心に
して、車の進行方向の部分の縮小の度合いは、車の横方
向の縮小の度合いよりは小さくすることができる。もち
ろん逆も可能である。A major advantage of the above method is that the bowl model can be modified to freely determine the expansion / contraction ratio of the vehicle peripheral portion with respect to the expansion / contraction ratio of the portion in the immediate vicinity of the vehicle. For example, when the bowl model is circular, an image is obtained that is centered on the portion corresponding to the bottom of the bowl and is reduced as it moves away from it regardless of the direction. Also, leave the bowl model at the same place at the bottom and make the shape oval. If the major axis of this ellipse is aligned with the side of the car, the degree of reduction in the direction of travel of the car is the degree of reduction in the lateral direction of the car, centered on the part corresponding to the bottom of the bowl. Can be smaller than. Of course, the reverse is also possible.
【0056】なお、ここでは、タイヤの接地部分を含む
車両直近部分の拡縮率が、車両周辺部分の拡縮率よりも
相対的に高くなるように合成された画像を、お椀モデル
を用いて合成する方法について説明したが、もちろんお
椀モデル以外の方法を用いた合成が可能であることはい
うまでもない。Note that, here, an image is synthesized using a bowl model so that the scaling ratio of the vehicle nearest portion including the ground contact portion of the tire is relatively higher than the scaling ratio of the vehicle peripheral portion. Although the method has been described, it goes without saying that the synthesis using a method other than the bowl model is possible.
【0057】また、カメラがボディに取り付けられてあ
り、そのカメラのほぼ上方下向きに仮想視点を設け、上
記お椀モデルを用いて画像を合成している。つまり、カ
メラの取り付け場所を中心に上述したような縮小変形を
行っても、ボディの側面の直線性、およびそこから先の
進行方向の直線性は保持される。図8(b)の画像は、
カメラ1,2のほぼ上方下向きに仮想視点を設けてお椀
モデルを用いて合成した画像と、カメラ5,6のほぼ上
方下向きに仮想視点を設けてお椀モデルを用いて合成し
た画像とを用いて、作成される。Further, a camera is attached to the body, a virtual viewpoint is provided substantially above and downward of the camera, and images are combined using the bowl model. That is, even if the above-described reduction deformation is performed centering on the mounting position of the camera, the linearity of the side surface of the body and the linearity in the traveling direction beyond that are maintained. The image in FIG. 8 (b) is
Using an image synthesized by using a bowl model with a virtual viewpoint provided substantially above and downward of the cameras 1 and 2, and an image synthesized using a bowl model provided with a virtual viewpoint provided substantially above and downward of the cameras 5 and 6. , Created.
【0058】次に、図8(a)を用いた,路肩にある溝
までの幅寄せの様子を具体的に説明する。図8(a)で
は、車両の助手席サイドから路肩にある溝までの余裕が
どの程度あるかが分かるように、車両の直近の部分を拡
大して、この直近部分について少なくとも5cm程度が
見分けられるような解像度を保っている。しかも、自車
が路側にどの程度近づいているかを見ただけで判断でき
るように、自車のタイヤも写るように表示している(実
線の丸のエリア51)。実験により、このような画像を
提示することによって、これまで路側帯への幅寄せにつ
いて10cmを切ることが困難であった運転者が、容易
に5cm以内まで寄せられるようになったことが分かっ
ている。すなわち、この表示態様が、幅寄せ運転に大き
な効果を持つことが確認されている。Next, the manner of width adjustment to the groove on the road shoulder will be specifically described with reference to FIG. In FIG. 8 (a), the nearest part of the vehicle is enlarged so that at least about 5 cm can be discriminated in order to understand how much room there is from the passenger side of the vehicle to the groove on the road shoulder. The resolution is maintained. Moreover, the tires of the own vehicle are also displayed so that the user can judge by just seeing how close the own vehicle is to the roadside (solid circled area 51). Experiments showed that by presenting such an image, a driver, who had been difficult to cut the width of the roadside belt within 10 cm, could easily reach within 5 cm. There is. That is, it has been confirmed that this display mode has a great effect on the side-by-side driving.
【0059】一方、本表示態様により、自車とその右サ
イドを通過しようとする対向車との隙間の余裕がどの程
度あるかも確認できる(破線の丸のエリア52)。図8
(b)は図8(a)と同一の表示態様であり、このよう
な確認を行う状況例を示している。本表示態様では、前
方が直線性を保って縮小されているため、前後のタイヤ
に接するように引いた線(TYRE1とTYRE3を通る線53
およびTYRE2とTYRE4を通る線54)が自車の進行線と
なる。このため右前から対向車が近づいてくる場合、そ
の対向車が右側の進行線より右にいるか、それとも進行
線をまたいでいるかを見ることによって、対向車と接触
するかどうかが容易に判断できるのである。もちろん前
方になればなるほど画面が縮小されているので、対向車
がまだ離れた場所から近づきつつある状況でも、前もっ
て画面上で上記判断ができるため運転者は余裕をもって
自車を操作できる。図8(b)の例では、右側の進行線
よりも明らかに右にある対向車が、自車の右サイドを接
触せず無事に通過して行く様子がわかるなお、前方の様
子は少なくとも約5m先が見えていると運転操作がしや
すい、ということが実験によって確認されている。On the other hand, from this display mode, it is possible to confirm how much space is left between the host vehicle and the oncoming vehicle passing the right side of the host vehicle (circled area 52 of broken line). Figure 8
FIG. 8B shows the same display mode as FIG. 8A, and shows an example of a situation in which such confirmation is performed. In this display mode, since the front side is reduced while maintaining the linearity, a line drawn so as to contact the front and rear tires (a line 53 passing through TIRE1 and TIRE3)
And the line 54) passing through TYRE2 and TYRE4 becomes the traveling line of the vehicle. For this reason, when an oncoming vehicle approaches from the front right, it can be easily determined whether or not the oncoming vehicle will contact the oncoming vehicle by observing whether the oncoming vehicle is on the right side of the right side traveling line or crossing the traveling line. is there. Of course, the screen becomes smaller toward the front, so even if an oncoming vehicle is approaching from a distant place, the above judgment can be made on the screen in advance so that the driver can operate the vehicle with a margin. In the example of FIG. 8B, it can be seen that the oncoming vehicle on the right of the traveling line on the right passes safely without touching the right side of the vehicle. It has been confirmed by experiments that it is easy to drive when 5 m ahead is visible.
【0060】ただし、実際に対向車とすれ違う場合は、
これだけでは不充分な場合もある。すなわちドアミラー
など、ボディよりさらに外側に突起した物体がある場合
は、画面確認と同時にやはり運転者による目視による確
認も必要となる。However, in the case of actually passing an oncoming vehicle,
In some cases, this is not enough. That is, when there is an object protruding further outside the body, such as a door mirror, it is necessary to visually confirm the screen as well as the screen.
【0061】なお、図8では4個のタイヤ全てを表示す
るものとしたが、一部のタイヤ、例えば前のタイヤのみ
を合成画像に表示させてもかまわない。Although all four tires are displayed in FIG. 8, only some of the tires, for example, only the previous tire may be displayed in the composite image.
【0062】以上、これまでは、第2の実施形態におけ
る画面態様を4台のカメラを用いた場合を例にとって説
明した。もちろん本発明は、これに限定されるものでな
く、1台のカメラのみを用いても実施することができ
る。例えば、コスト等の制約から、助手席側の車両側面
に前向きのカメラ1台のみしか設置できない場合であっ
ても、本発明によって、路肩への幅寄せに有効な画像を
利用者に提供することが可能である。Up to this point, the case of using four cameras has been described as an example of the screen mode in the second embodiment. Of course, the present invention is not limited to this, and can be implemented by using only one camera. For example, even if only one front-facing camera can be installed on the side of the vehicle on the passenger side due to cost constraints, the present invention provides the user with an image effective for sideways approaching the shoulder. Is possible.
【0063】図19は1台のカメラのみを用いた本実施
形態に係る画面態様を複数のカメラを用いた場合と対比
して示す図である。同図中、(a)は車の左右に設置さ
れた4台のカメラRF,RR,LF,LRのカメラ画像
の例、(b)は(a)に示す4つのカメラ画像から図8
と同様に作成した合成画像である。これに対して、
(c)は(a)におけるカメラLFのカメラ画像のみか
ら合成した画像である。なお、図19(b),(c)に
おける自車のイラストは、合成画像に対する自車位置の
目安を示すために貼り付けたものであり、画像に含まれ
る自車部分とは必ずしも一致しない。FIG. 19 is a diagram showing a screen mode according to this embodiment using only one camera, in comparison with a case using a plurality of cameras. In the figure, (a) is an example of a camera image of four cameras RF, RR, LF, LR installed on the left and right of the vehicle, and (b) is a diagram of the four camera images shown in (a).
It is a composite image created in the same manner as. On the contrary,
(C) is an image synthesized from only the camera image of the camera LF in (a). It should be noted that the illustrations of the own vehicle in FIGS. 19B and 19C are attached to show the reference of the own vehicle position with respect to the composite image, and do not necessarily match the own vehicle portion included in the image.
【0064】図19(c)の例では、画像合成に用いら
れるカメラは1台だけなので、画像に映る視野範囲は
(b)の例よりも限定されている。ところが、車両の直
近部分を拡大することによって、少なくとも5cm程度
の物が見分けられるような解像度を保ち、車両の助手席
サイドから路肩の溝までどの程度余裕があるか分かるよ
うになっている。しかも、画像をみただけで、自車が路
側にどの程度接近しているのかが容易に認識できるよ
う、自車のタイヤも映るように表示されている(実線の
丸のエリア)。In the example of FIG. 19C, since only one camera is used for image combination, the visual field range shown in the image is more limited than that of the example of FIG. However, by enlarging the immediate portion of the vehicle, it is possible to maintain a resolution at which an object of at least about 5 cm can be discriminated and to know how much room is left from the passenger side of the vehicle to the groove of the road shoulder. Moreover, the tires of the own vehicle are also displayed so that the extent to which the own vehicle is approaching the roadside can be easily recognized only by looking at the image (solid circle area).
【0065】したがって、(c)のような画像が表示さ
れると、狭路で助手席側の路肩に溝があるような走行環
境において、前方からの対向車をよける場合でも、路肩
の溝にタイヤが落ちないかどうかを確認しつつ、前進し
ながら幅寄せすることが可能となる。もちろん、この場
合は、対向車との間隔はドライバー自身が確認する必要
はあるものの、幅寄せに対する運転の負担は大幅に軽減
する。Therefore, when the image as shown in (c) is displayed, in a driving environment where there is a groove on the shoulder of the passenger seat on a narrow road, even if an oncoming vehicle is avoided from the front, the groove of the road shoulder is avoided. While making sure that the tires do not fall, it is possible to move forward while moving forward. Of course, in this case, the driver himself needs to check the distance from the oncoming vehicle, but the burden of driving due to the width-shifting is significantly reduced.
【0066】さらに、魚眼レンズを用いることによっ
て、1台のカメラであっても十分に広い視野範囲を得る
ことができる。例えば、車両の助手席側の側方に視野角
が180°前後の魚眼レンズが付いたカメラを設置し、
このカメラ画像を用いて本発明を実現してもよい。これ
により、運転席と反対側側方の画像を広い範囲で表示す
ることができるので、より安全に運転することが可能に
なる。Further, by using the fisheye lens, a sufficiently wide field of view can be obtained even with one camera. For example, install a camera with a fisheye lens with a viewing angle of around 180 ° on the side of the passenger seat of the vehicle,
The present invention may be implemented using this camera image. As a result, the image on the side opposite to the driver's seat can be displayed in a wide range, so that the driver can drive more safely.
【0067】(第3の実施形態)
第3の実施形態は上述の第3の課題を解決するためにな
された発明の一態様であり、例えば切り返しを伴うよう
な駐車において、周囲の状況だけでなく、前進もしくは
後退した時の進行方向の先の様子も同時に分かるような
合成画像をドライバーに提供するものである。(Third Embodiment) The third embodiment is an aspect of the invention made to solve the above-mentioned third problem. For example, in parking involving turning back, only the surrounding situation is present. Instead, it provides the driver with a composite image so that the driver can see the state ahead of the vehicle when moving forward or backward.
【0068】次に表示画面態様の例について、車両の停
止時、前進時、および後退時の3つの状況に応じて図9
および図10を用いて具体的に説明する(合成の元にな
る撮影画像は図示しない)。Next, regarding the example of the display screen mode, FIG. 9 is shown according to the three situations of the vehicle being stopped, moving forward, and moving backward.
A detailed description will be given with reference to FIG. 10 and FIG.
【0069】1.車両の停止時の表示態様例:
図9(a)は上方から見下ろした仮想視点画像に対し
て、自車の前方および後方に相当する部分に、それぞれ
の方向の遠方を把握するために必要な画像を貼り付けた
例である。自車の周辺だけでなく、自車が動く方向の先
の様子までが一目でわかるため、信号停止時などで発進
前および直後の周囲状況確認に用いたり、また、縦列駐
車、並列駐車にも適用可能である。1. Example of display mode when vehicle is stopped: FIG. 9A shows a virtual viewpoint image viewed from above, which is necessary for grasping distances in front and rear of the vehicle in respective directions. This is an example in which an image is pasted. Not only the surroundings of the vehicle but also the direction ahead of the vehicle can be seen at a glance, so it can be used to check the surrounding conditions before and immediately after starting at the stop of traffic lights, and also for parallel parking and parallel parking. Applicable.
【0070】2.車両が低速前進中の表示態様例:
図9(b),(c)は、いずれも上方から見下ろした仮
想視点画像に対して、自車の前方に相当する部分に、前
方の遠方を把握するために必要な画像を貼り付けた例を
示す。自車の周辺だけでなく、進行方向の先の様子まで
が一目でわかる。2. Example of display mode when vehicle is moving forward at low speed: In each of FIGS. 9B and 9C, with respect to the virtual viewpoint image viewed from above, a portion corresponding to the front of the own vehicle is grasped as a distant front. An example in which an image necessary for this is pasted will be shown. At a glance, you can see not only the area around your vehicle but also the way ahead.
【0071】図9(b),(c)の違いは、前方の遠方
把握用の画像の違いである。まず、図9(b)は、見下
ろし画像と前方画像との境界が路面部分で繋がるように
した場合である。路面部分で繋がるため、前方障害物が
自車の前方のどの位置にあるかが分かりやすい。低速走
行時として、発進時だけでなく、狭路走行や料金所など
での幅寄せにも有効である。一方、図9(c)は、見下
ろし画像で死角となる部分を補うために、前方画像の視
野を180度にした場合である。画像同士の境界が繋が
らない問題はあるものの、前方に関しての幅広い視野の
情報を一度に見ることができるメリットがある。特に発
進前の前方180度周囲の確認に適している。The difference between FIGS. 9 (b) and 9 (c) is the difference in the image for distant grasp in the front. First, FIG. 9B shows a case where the boundary between the looking-down image and the front image is connected at the road surface portion. Since the road surface is connected, it is easy to see where the front obstacle is in front of the vehicle. This is effective not only when starting at low speeds, but also when driving on narrow roads and when narrowing toll gates. On the other hand, FIG. 9C shows a case where the field of view of the front image is set to 180 degrees in order to compensate for a blind spot in the looking-down image. Although there is a problem that the boundaries between images are not connected, there is a merit that information on a wide field of view regarding the front can be seen at once. It is especially suitable for checking the surroundings of 180 degrees ahead before starting.
【0072】なお、仮想視点画像については、前進の速
度が増すにつれ、自車の前の領域が広くなるように、逆
に前進の速度が下がるにつれ、自車の位置が画面の真ん
中に来るように連続的に切り換えても構わない。またさ
らに、一定速度を超えると、画面態様を後ろのパノラマ
画像だけにするようにしてもよい。Regarding the virtual viewpoint image, the area in front of the own vehicle becomes wider as the speed of forward movement increases, and conversely, the position of the own vehicle comes to the center of the screen as the speed of forward movement decreases. It may be continuously switched to. Furthermore, when the speed exceeds a certain speed, the screen mode may be limited to the rear panoramic image.
【0073】3.車両が後退中の表示態様例:
図10(a),(b)は、いずれも上方から見下ろした
仮想視点画像に対して、自車の後方に相当する部分に、
後方の遠方を把握するために必要な画像を貼り付けた例
を示す。自車の周辺だけでなく、後退方向の先の様子ま
でが一目でわかる。3. Example of display mode when the vehicle is moving backward: In FIGS. 10A and 10B, a virtual viewpoint image viewed from above is shown in a portion corresponding to the rear of the own vehicle.
An example in which an image necessary for grasping the distance behind is pasted will be shown. At a glance, you can see not only the area around your vehicle but also the way it looks in the backward direction.
【0074】図10(a),(b)の違いは、後方の遠
方把握用の画像の違いである。まず図10(a)は見下
ろし画像と前方画像との境界が路面部分で繋がるように
した場合である。路面部分で繋がるため、前方障害物が
自車の前方のどの位置にあるかが分かりやすい。前記境
界部分における路面の連続性を有することから、縦列駐
車、並列駐車の開始時に表示する画像に適している。一
方、図10(b)は見下ろし画像で死角となる部分を補
うために、後方画像の視野を180度にした場合であ
る。画像同士の境界が繋がらない問題はあるものの、死
角の多い車両後方に関して、死角がなくなるメリットが
ある。特に後退前の後方180度周囲の確認に適してい
る。The difference between FIGS. 10 (a) and 10 (b) is the difference in the image for rearward grasping. First, FIG. 10A shows a case where the boundary between the looking-down image and the front image is connected at the road surface portion. Since the road surface is connected, it is easy to see where the front obstacle is in front of the vehicle. Since the road surface has continuity at the boundary portion, it is suitable for an image displayed at the start of parallel parking and parallel parking. On the other hand, FIG. 10B shows a case where the field of view of the rear image is set to 180 degrees in order to supplement a blind spot in the looking-down image. Although there is a problem that the boundaries between the images are not connected, there is an advantage that the blind spot disappears in the rear of the vehicle with many blind spots. It is especially suitable for checking the surroundings of 180 degrees behind before retreating.
【0075】なお、仮想視点画像については、後退の速
度が増すにつれ、自車の後ろの領域が広くなるように、
逆に後退の速度が下がるにつれ、自車の位置が画面の真
ん中に来るように連続的に切り換えても構わない。Regarding the virtual viewpoint image, the area behind the vehicle becomes wider as the backward moving speed increases.
On the contrary, as the reverse speed decreases, the position of the vehicle may be continuously switched so that the position of the vehicle is in the center of the screen.
【0076】また、図9(a)に示すような表示態様
は、車両が全く動いてない場合のみに表示するだけでは
なく、切り返しなど前進と後退が頻繁に繰り返されると
きに表示してもよい。例えば切り返しの際に、図9
(b)と図10(a)とを切り換えて表示すると、見て
いて煩わしい場合もある。このような場合は、速度の絶
対値が所定値以下の期間は、図9(a)に示すような画
像を常に表示させておいても良い。The display mode as shown in FIG. 9A is not only displayed when the vehicle is not moving at all, but may be displayed when forward and backward movements such as turning back are frequently repeated. . For example, when switching back,
Switching between (b) and FIG. 10 (a) for display may be bothersome to see. In such a case, the image as shown in FIG. 9A may be always displayed during the period when the absolute value of the speed is equal to or less than the predetermined value.
【0077】以上、これまでは、第3の実施形態におけ
る画面態様を8台のカメラを用いた場合を例にとって説
明した。もちろん本発明は、これに限定されるものでは
なく、例えば、コスト等の制約から、車両後面の中央部
にカメラが2台または1台のみしか設置できない場合で
あっても、本発明によって、後退時に有効な画像を利用
者に提供することが可能である。Up to this point, the case of using eight cameras has been described as an example of the screen mode in the third embodiment. Of course, the present invention is not limited to this, and even if only two or only one camera can be installed in the central portion of the rear surface of the vehicle due to constraints such as cost, it is possible to retreat according to the present invention. Sometimes it is possible to provide the user with a valid image.
【0078】図20は2台のカメラを用いた本実施形態
に係る画面態様を示す図である。同図中、(a)は車両
の後面に設置された2台のカメラBR,BLのカメラ画
像の例、(b)は仮想視点画像を作る際の仮想視点の位
置(車後端中央部の上方から真下に見下ろす)を示す
図、(c)は(a)に示す2つのカメラ画像を用いて生
成した合成画像である。図20(c)の合成画像では、
上方から見下ろした仮想視点画像が下に配置されてお
り、かつ、後方遠方を把握するために必要な画像がその
上に配置されている。FIG. 20 is a diagram showing a screen mode according to this embodiment using two cameras. In the figure, (a) is an example of a camera image of two cameras BR, BL installed on the rear surface of the vehicle, and (b) is the position of the virtual viewpoint when creating a virtual viewpoint image (the center of the rear end of the vehicle). FIG. 3C is a view showing the image from above and directly below, and FIG. 3C is a composite image generated using the two camera images shown in FIG. In the composite image of FIG. 20 (c),
A virtual viewpoint image looking down from above is arranged below, and an image necessary for grasping the far distance behind is arranged above it.
【0079】本例のように、車両後方に設置した2台の
カメラのみを用いた場合、車両側方の画像は得られない
ものの、車両後方については視野範囲がほぼ180度の
画像が得られるため、自車の周辺だけでなく、後退方向
の先の様子までが画像から一目でわかる。このため、並
列駐車や縦列駐車における後退時には、このような2台
のカメラを用いて生成した合成画像であっても、十分実
用的である。When only two cameras installed in the rear of the vehicle are used as in this example, an image of the side of the vehicle cannot be obtained, but an image of a field of view of approximately 180 degrees is obtained in the rear of the vehicle. Therefore, not only the surroundings of the vehicle but also the state in the backward direction can be seen at a glance from the image. Therefore, at the time of backward movement in parallel parking or parallel parking, even a composite image generated using such two cameras is sufficiently practical.
【0080】図21は1台のカメラを用いた本実施形態
に係る画面態様を示す図である。同図中、(a)は車両
の後面に設置された1台のカメラの画像、(b)は仮想
視点画像を作る際の仮想視点の位置(車後端中央部の上
方から真下に見下ろす)を示す図、(c)は(a)に示
すカメラ画像を用いて生成した合成画像である。図21
(c)の合成画像では、上方から見下ろした仮想視点画
像が下に配置されており、かつ、後方遠方を把握するた
めに必要な画像がその上に配置されている。FIG. 21 is a diagram showing a screen mode according to this embodiment using one camera. In the figure, (a) is the image of one camera installed on the rear surface of the vehicle, (b) is the position of the virtual viewpoint when creating the virtual viewpoint image (looking down from above the central portion of the rear end of the vehicle directly below) And (c) is a composite image generated using the camera image shown in (a). Figure 21
In the composite image in (c), the virtual viewpoint image viewed from above is arranged below, and the image necessary for grasping the far distance behind is arranged above it.
【0081】本例では、カメラが1台だけなので、車両
側方だけでなく、さらに車両斜め後方も視野範囲外にな
る。ところが図21(c)を見ると分かるように、カメ
ラの画角が130度程度あれば、後方確認に十分な視野
が得られ、自車の周辺だけでなく、後退方向の先の様子
までが一目でわかる。このため、このような1台のカメ
ラを用いて生成した合成画像であっても、並列駐車や縦
列駐車における後退時には、十分実用的である。さら
に、魚眼レンズを用いることによって、1台のカメラで
あっても十分に広い視野範囲を得ることができる。In this example, since there is only one camera, not only the side of the vehicle but also diagonally behind the vehicle is out of the field of view. However, as can be seen from FIG. 21 (c), if the angle of view of the camera is about 130 degrees, a sufficient field of view for rearward confirmation can be obtained, and not only the surroundings of the vehicle but also the state in the backward direction can be seen. You can see at a glance. Therefore, even a composite image generated using such a single camera is sufficiently practical when the vehicle moves backward in parallel parking or parallel parking. Further, by using the fisheye lens, it is possible to obtain a sufficiently wide field of view even with one camera.
【0082】なお、図20(c)および図21(c)に
おける自車のイラストは、合成画像に対する自車の位置
の目安を示すために貼り付けたものである。そして、イ
ラストの大きさを、合成画像に対して正確に一致させる
ことによって、運転がさらにし易くなることはいうまで
もない。The illustrations of the own vehicle in FIGS. 20 (c) and 21 (c) are attached to show the position of the own vehicle with respect to the composite image. Needless to say, driving can be further facilitated by accurately matching the size of the illustration with the composite image.
【0083】(第4の実施形態)
第4の実施形態は上述の第4の課題を解決するためにな
された発明の一態様であり、カメラ画像を変形・切り出
して合成した仮想視点画像においても、路面以外の物体
が消失しないような合成画像をドライバーに提供するも
のである。(Fourth Embodiment) The fourth embodiment is an aspect of the invention made to solve the above-mentioned fourth problem, and also in a virtual viewpoint image obtained by transforming / cutting out a camera image and synthesizing it. It provides the driver with a composite image so that objects other than the road surface do not disappear.
【0084】次に、表示画面態様の例について図を用い
て具体的に説明する。Next, an example of a display screen mode will be specifically described with reference to the drawings.
【0085】図11(a)は本実施形態に係る画像の例
として、車両側方の後ろ向きのカメラ(カメラ2,6)
のみを用いた第1の仮想視点画像と、後のペアカメラ
(カメラ3,7)のみを用いた第2の仮想視点画像と
を、並列に並べて画面に表示した例を示している。これ
らの仮想視点画像は、それぞれ、撮影範囲が重複するカ
メラ(カメラ2とカメラ3,またはカメラ6とカメラ
7)について、一方のカメラを用い、かつ、他方のカメ
ラを用いないで作成した仮想視点画像である。各仮想視
点画像において、その作成に用いた一方のカメラの撮影
範囲については、他方のカメラとの重複部分と非重複部
分とがともに含まれている。これによって、図17
(b)の仮想視点画像では消滅していた自車の右後ろ隅
に立っているポールP1が、2個の仮想視点画像のいず
れにも消滅せずに映っている。もちろん、画面に並べて
表示する代わりに、複数の仮想視点画像を別の画面に表
示させて画面の切替を行うようにしてもかまわない。FIG. 11A shows, as an example of an image according to this embodiment, a camera (cameras 2 and 6) facing rearward on the side of the vehicle.
An example is shown in which a first virtual viewpoint image using only the above and a second virtual viewpoint image using only the paired cameras (cameras 3 and 7) after that are displayed in parallel on the screen. These virtual viewpoint images are created by using one of the cameras (camera 2 and camera 3, or camera 6 and camera 7) whose shooting ranges overlap, and not using the other camera. It is an image. In each virtual viewpoint image, the shooting range of one camera used for its creation includes both an overlapping portion and a non-overlapping portion with the other camera. As a result, FIG.
The pole P1 standing in the right rear corner of the own vehicle, which has disappeared in the virtual viewpoint image of (b), is reflected in both of the two virtual viewpoint images without disappearing. Of course, instead of displaying them side by side on the screen, a plurality of virtual viewpoint images may be displayed on another screen to switch the screens.
【0086】一般的に、このような路面外の物体が消滅
する現象は下記の2つの条件がともに満たされたときに
起こる。In general, such a phenomenon that an object outside the road surface disappears occurs when both of the following two conditions are satisfied.
【0087】条件1:境界を構成する2つの部分画像の
もとになるそれぞれのカメラが該物体を撮影している方
向が、異なること
これは、物体を見ている方向が2つのカメラで異なる
と、それぞれのカメラ画像を仮想視点画像に変形したと
きに、物体の歪んでいく方向が異なるということを意味
する。これは図17(a)のポールP1の変形からも明
らかである。Condition 1: The directions in which the respective cameras, which are the basis of the two partial images constituting the boundary, are shooting the object are different. This is because the directions in which the object is viewed are different between the two cameras. And, when the respective camera images are transformed into virtual viewpoint images, the directions in which the object is distorted are different. This is also apparent from the modification of the pole P1 shown in FIG.
【0088】条件2:該物体が部分画像同士の境界付近
にあること
これは、変形によって歪んだ物体が境界付近にある場
合、部分画像を作るための切りだし処理によって、歪ん
で伸びた部分がほとんど消されてしまうということを意
味する。これも図17(a)のポールP1の変形から明
らかである。Condition 2: The object is in the vicinity of the boundary between the partial images. This means that when the object distorted by deformation is in the vicinity of the boundary, the distorted and extended part is generated by the cutting process for creating the partial image. It means that it is almost erased. This is also apparent from the modification of the pole P1 shown in FIG.
【0089】したがって、条件1が満たされなければ物
体は消えることは無い。図12(a)は条件2を満たし
ながらも物体が消えない例を示した概念図である。図1
2(a)では、ポールが車両後方のペアカメラの直後に
立っているが、条件1を満たしていないため、すなわち
カメラ3もカメラ7も、ポールに対してほぼ同じ方向に
向いているため、いずれのカメラ画像を変形しても、ポ
ールは同じように画面の下に伸びるように歪む。このた
め、境界部分において、カメラ3の部分画像とカメラ7
の部分画像とを混ぜ合わせる処理などを行うことによっ
て、ポールが消えるのを防げるわけである。Therefore, the object does not disappear unless the condition 1 is satisfied. FIG. 12A is a conceptual diagram showing an example in which an object does not disappear even though Condition 2 is satisfied. Figure 1
In 2 (a), the pole stands immediately behind the paired camera behind the vehicle, but since Condition 1 is not satisfied, that is, both camera 3 and camera 7 face in substantially the same direction with respect to the pole, No matter which camera image is transformed, the pole will be distorted to extend to the bottom of the screen as well. Therefore, at the boundary, the partial image of the camera 3 and the camera 7
It is possible to prevent the pole from disappearing by performing processing such as mixing with the partial image of.
【0090】同様に、条件2が満たされなければ物体は
ほとんど消えない。図12(b)は条件1を満たしなが
らも物体が消えない例を示した概念図である。図12
(b)では、ポールが車両右斜め後方に少し離れて立っ
ており、異なる場所に位置するカメラ2、カメラ3の視
野範囲にいるため条件1を満たしている。しかし、条件
2を満たしていないため、すなわちカメラ2の部分画像
とカメラ3の部分画像の境界から離れているため、カメ
ラ3の部分画像において根元から画面右に伸びるように
歪んでいるポールは、少なくとも境界までは消えずに残
って見えている。Similarly, the object hardly disappears unless the condition 2 is satisfied. FIG. 12B is a conceptual diagram showing an example in which an object does not disappear even though Condition 1 is satisfied. 12
In (b), Condition 1 is satisfied because the pole stands diagonally to the right rear of the vehicle and is slightly away from it and is in the visual field range of the cameras 2 and 3 located at different positions. However, because the condition 2 is not satisfied, that is, the pole is distorted so as to extend from the root to the right of the screen in the partial image of the camera 3 because it is far from the boundary between the partial image of the camera 2 and the partial image of the camera 3, At least until the boundaries are visible and remain.
【0091】このことから、画面の構成案を設計する場
合の一つの指針としては、上記条件1を回避するため
に、一つの画面に、異なる2つのカメラ画像から作成さ
れた部分画像同士の境界を作らないということが挙げら
れる。前述の図は、まさしくその一例を示したものであ
り、カメラ2とカメラ3の境界、およびカメラ6とカメ
ラ7の境界を同じ画面に作らないために2つの画面に分
けたものである。From this, as a guideline when designing a screen configuration plan, in order to avoid the above condition 1, a boundary between partial images created from two different camera images is displayed on one screen. It does not make a. The above-mentioned figure shows just one example, and is divided into two screens so that the boundary between the camera 2 and the camera 3 and the boundary between the camera 6 and the camera 7 are not formed on the same screen.
【0092】また、図2のような8カメラ画像を使った
場合では、図11(b)の例に示すような2画面で画像
を構成することができる(合成の元になる撮影画像は図
示しない)。図11(b)では、仮想視点画像におい
て、両サイドのカメラのみを使った合成画像と、前後の
カメラのみを使った合成画像とを、並列に並べて画面に
表示している。いずれにしても、前記指針に基づいて作
成されたものであれば、本例で示した以外の画面構成で
ももちろんかまわない。In the case of using the 8-camera image as shown in FIG. 2, the image can be composed of two screens as shown in the example of FIG. do not do). In FIG. 11B, in the virtual viewpoint image, a combined image using only the cameras on both sides and a combined image using only the front and rear cameras are arranged in parallel and displayed on the screen. In any case, any screen configuration other than that shown in this example may be used as long as it is created based on the above guideline.
【0093】(第5の実施形態)
第5の実施形態は上述の第5の課題を解決するためにな
された発明の一態様であり、仮想視点画像において隣り
合う部分画像同士の境界で画像が非連続、不鮮明になる
ため運転に支障を与えることを防ぐために、非連続にな
るような部分を写した別の画像を仮想視点画像に埋め込
んで、ドライバーに提示する。(Fifth Embodiment) The fifth embodiment is an aspect of the invention made in order to solve the above-mentioned fifth problem. In the virtual viewpoint image, an image is formed at a boundary between adjacent partial images. In order to prevent the driving from being disturbed due to discontinuity and blur, another image showing the discontinuity is embedded in the virtual viewpoint image and presented to the driver.
【0094】次に表示画面態様の例について図を用いて
具体的に説明する。Next, an example of the display screen mode will be specifically described with reference to the drawings.
【0095】図13(a)は図2に示すカメラ2,3,
6,7の4個のカメラを用いて生成した画面態様を示す
図である。全体は、上記4つのカメラ画像を用いて合成
した,上方から見下ろした仮想視点画像が使われてお
り、画像の上半分の右に、当該車両の右後方部を撮影す
るカメラ2の左右反転画像を、画像の上半分の左に、当
該車両の左後方部を撮影するカメラ6の左右反転画像
を、サブウインドウを設けて表示している。仮想視点画
像において、破線で囲まれた楕円部分では、駐車車両と
の接近度合がおおよそでしか把握できない。しかしなが
ら、サブウィンドウに表示したカメラ2の左右反転画像
において、実線で囲まれた円の部分を見ることによっ
て、駐車車両の接近度合を一目で把握することができ
る。FIG. 13A shows the cameras 2, 3 shown in FIG.
It is a figure which shows the screen mode produced | generated using four cameras of 6,7. As a whole, a virtual viewpoint image looking down from above, which is synthesized by using the above four camera images, is used, and a right-and-left inverted image of the camera 2 that photographs the right rear part of the vehicle is displayed on the right of the upper half of the image. On the left of the upper half of the image, a left-right inverted image of the camera 6 capturing the left rear part of the vehicle is displayed with a sub-window. In the virtual viewpoint image, the degree of approach to the parked vehicle can be roughly grasped in the elliptical portion surrounded by the broken line. However, the degree of approach of the parked vehicle can be grasped at a glance by observing the part of the circle surrounded by the solid line in the horizontally inverted image of the camera 2 displayed in the sub window.
【0096】また、図13(b)は図2に示すカメラ
2,3,6,7の4個のカメラを用いて生成した他の画
面態様を示す図である(合成の元になる撮影画像は図示
しない)。全体は、カメラ3、7の画像を用いて合成し
た,上方から斜め後方に見下ろして左右を反転させた仮
想視点画像が使われており、画像の下半分の右にカメラ
2の反転画像を、画像の下半分の左にカメラ6の反転画
像を、サブウインドウを設けて表示している。図13
(b)の例では、仮想視点画像の注視点が画面全体の上
半分に来るものと想定されるので、サブウインドウを画
面下半分の右側と左側にそれぞれ配置している。効果は
図13(a)と同様である。Further, FIG. 13B is a diagram showing another screen mode generated by using the four cameras 2, 3, 6, and 7 shown in FIG. Is not shown). As a whole, a virtual viewpoint image which is synthesized by using the images of the cameras 3 and 7 and which is diagonally rearwardly looked down from above and whose left and right are inverted is used, and the inverted image of the camera 2 is displayed on the right of the lower half of the image. A reverse image of the camera 6 is displayed on the left side of the lower half of the image by providing a sub window. FIG.
In the example of (b), since it is assumed that the gazing point of the virtual viewpoint image comes to the upper half of the entire screen, the sub-windows are arranged on the right and left sides of the lower half of the screen. The effect is similar to that of FIG.
【0097】いずれの例においても、サブウインドウ
は、背景画像としての仮想視点画像のうち隠されても運
転に支障を与えない部分に固定配置してもよいし、周囲
の状況などに応じて配置場所を適宜動かしても構わな
い。In any of the examples, the sub-window may be fixedly arranged in a portion of the virtual viewpoint image as the background image that does not hinder driving even if it is hidden, or may be arranged according to the surrounding conditions. You may move the place appropriately.
【0098】このような画面構成にすることで、仮想視
点画像によって、自車と周囲物体との位置関係が把握で
きるとともに、境界で不連続になるような部分に関して
は、サブウィンドウに表示されたミラー画像を見ること
によって、車両周囲の物体との接近度合の詳細を、視線
の移動なく把握できる。With such a screen configuration, the virtual viewpoint image can be used to ascertain the positional relationship between the vehicle and surrounding objects, and the portion discontinuous at the boundary can be displayed on the sub-window. By looking at the image, it is possible to grasp the details of the degree of approach to the object around the vehicle without moving the line of sight.
【0099】(第6の実施形態)
第6の実施形態は上述した第6の課題を解決するために
なされた発明の一態様であり、複雑な運転操作の際に詳
細状況を把握したい場所である自車の側方領域につい
て、他の部分に優先させて運転者に提示するものであ
る。(Sixth Embodiment) The sixth embodiment is an aspect of the invention made to solve the above-mentioned sixth problem, and is used at a place where a detailed situation is desired to be grasped during a complicated driving operation. The side area of a certain vehicle is presented to the driver in preference to other areas.
【0100】図14(a),(b)は複雑な運転操作の
一つである縦列駐車において、駐車動作開始時と駐車動
作途中とにおける合成画像をそれぞれ示す図である。い
ずれの仮想視点画像においても、車両の側部に設置した
カメラを優先して用いることによって、駐車中の車P_
CARがカメラ4およびカメラ5のみによって画像に再
現されるため、不連続になるという問題が解消されてい
る。FIGS. 14 (a) and 14 (b) are diagrams showing a composite image at the start of the parking operation and during the parking operation in parallel parking, which is one of the complicated driving operations. In any of the virtual viewpoint images, the parked vehicle P_ is set by preferentially using the camera installed on the side of the vehicle.
Since the CAR is reproduced in the image only by the cameras 4 and 5, the problem of discontinuity is solved.
【0101】もちろん、部分画像のレイアウトをこのよ
うな態様にすると、不連続部分が車両の前後に集中する
ため、その部分で利用者に違和感を与える可能性があ
る。しかしながら、この点に関しては例えば第3の実施
形態で述べたように、車両の進行方向の先を把握するた
めに必要な画像を仮想視点画像に並べて表示することな
どによって、不連続部分の違和感を緩和させることが可
能である。Of course, when the layout of the partial images is set in such a mode, discontinuous portions are concentrated in the front and rear of the vehicle, which may give the user a feeling of strangeness. However, regarding this point, for example, as described in the third embodiment, an image necessary for grasping the destination of the traveling direction of the vehicle is displayed side by side on the virtual viewpoint image, and the discomfort of the discontinuous portion is displayed. It can be alleviated.
【0102】上述の例では、車両側方のカメラを優先し
て用いることによって、縦列駐車の際に注視する部分が
見やすくなるように、仮想視点画像における境界を構成
した。この部分画像同士の境界は、用途や運転の状況に
応じて適宜切り換えるようにしてもよい。これにより、
運転者にとってより見やすい画像を提供することが可能
になる。In the above example, the camera on the side of the vehicle is preferentially used so that the boundary in the virtual viewpoint image is configured so that the portion to be watched during parallel parking can be easily seen. The boundary between the partial images may be appropriately switched depending on the application and the driving situation. This allows
It is possible to provide an image that is easier for the driver to see.
【0103】図15は並列駐車の際における部分画像同
士の境界の切替の一例を示す図である。並列駐車を行う
とき、動作開始当初(図15(a))から途中(図15
(b))までは、車両側方の物体(例えば駐車中の車P
_CAR_Sなど)と接触しないかどうかを主として確
認する必要がある。このため、車両側部に設置したカメ
ラを優先して用い、車両側部のカメラの撮影画像をでき
る限り広く用いた仮想視点画像を提示する。一方、車両
の約半分がすでに駐車スペースに入りかかった最終段階
では、車両後方の物体(例えば駐車中の車P_CAR_
Bなど)と当たらないかどうかを主として確認する必要
がある。このため、車両後部に設置したカメラを優先し
て用い、車両後部のカメラの撮影画像をできる限り広く
用いた仮想視点画像を提示する。FIG. 15 is a diagram showing an example of switching the boundary between partial images during parallel parking. When parallel parking is performed, from the beginning of the operation (FIG. 15A) to the middle (FIG. 15A).
Up to (b)), an object on the side of the vehicle (for example, a parked car P)
_CAR_S) should be checked mainly. Therefore, a camera installed on the side of the vehicle is preferentially used, and a virtual viewpoint image in which the captured image of the camera on the side of the vehicle is used as widely as possible is presented. On the other hand, at the final stage when about half of the vehicles have already entered the parking space, an object behind the vehicle (for example, a parked car P_CAR_
It is mainly necessary to confirm whether or not it does not hit B). Therefore, a camera installed at the rear of the vehicle is preferentially used, and a virtual viewpoint image in which an image captured by the camera at the rear of the vehicle is used as widely as possible is presented.
【0104】ここで、車両側部のカメラを優先するモー
ドから車両後部のカメラを優先するモードへの切替に
は、例えば、車両に設けた,後方物体の検知を行うセン
サの検知信号をトリガーとして用いればよい。もし、車
両後方に何か物体が存在することをセンサが検知すれ
ば、これをトリガーにして、車両後部のカメラを優先す
る画面モードに切り替えればよい。Here, in order to switch the mode in which the camera on the side of the vehicle is prioritized to the mode in which the camera on the rear of the vehicle is prioritized, for example, a detection signal of a sensor provided in the vehicle for detecting a rear object is used as a trigger. You can use it. If the sensor detects that there is any object behind the vehicle, this may be used as a trigger to switch to a screen mode in which the camera at the rear of the vehicle is prioritized.
【0105】なお、切替のトリガーとしては、物体検知
センサの代わりに、例えばハンドル操作やギア操作など
何を用いてもかまわない。また、もちろん、運転者が手
動で画面モードを切り替えてもかまわない。As the switching trigger, any operation such as handle operation or gear operation may be used instead of the object detection sensor. Of course, the driver may manually switch the screen mode.
【0106】図16は上述した画面モードの切替を可能
にするシステム構成を示すブロック図である。図16の
構成では、マッピングテーブル選択部25が画面モード
切換信号(例えば物体検知センサの信号など)を受け、
その信号内容に応じて、マッピングテーブルMPTを切
り換える。例えば上記のような自動切換を実現するため
には、車両側部のカメラを優先する画面モードのマッピ
ングテーブルと、車両後部のカメラを優先する画面モー
ドのマッピングテーブルとを予め準備しておけばよい。FIG. 16 is a block diagram showing a system configuration that enables switching of the above-mentioned screen modes. In the configuration of FIG. 16, the mapping table selection unit 25 receives the screen mode switching signal (for example, the signal of the object detection sensor),
The mapping table MPT is switched according to the signal content. For example, in order to realize the automatic switching as described above, a screen mode mapping table that prioritizes the cameras on the side of the vehicle and a screen mode mapping table that prioritizes the cameras on the rear of the vehicle may be prepared in advance. .
【0107】以上、本発明の目的を実現するための合成
画像の表示態様を説明した。なお、この合成画像を実現
するための装置構成としては、表示する画像の分に相当
するマッピングテーブルを備えておくようにしても良い
し、状況に応じてマッピングテーブルを自動で作成して
もかまわない。The display mode of the composite image for realizing the object of the present invention has been described above. As a device configuration for realizing this composite image, a mapping table corresponding to the number of images to be displayed may be provided, or a mapping table may be automatically created according to the situation. Absent.
【0108】また、本発明において車両とは、普通自動
車、軽自動車、貨物自動車、バス等を含む。また、本発
明の技術思想が適用されうるものであれば、クレーン
車、シャベルカー等の特殊車両も本発明の車両とするこ
とができる。In the present invention, the vehicle includes ordinary cars, light cars, freight cars, buses and the like. Further, a special vehicle such as a crane truck or a shovel car can be the vehicle of the present invention as long as the technical idea of the present invention can be applied.
【0109】なお、以上の説明では、本発明に係る監視
システムは、車両に適用するものとしたが、車両以外の
移動体、例えば飛行機や船舶などであっても、同様に適
用することができる。また、移動体以外の監視対象、例
えば店舗、住居、ショールームなどにカメラを設置して
もよい。In the above description, the monitoring system according to the present invention is applied to a vehicle, but it can be similarly applied to a moving body other than the vehicle, such as an airplane or a ship. . Further, the camera may be installed in a monitoring target other than the moving body, such as a store, a residence, or a showroom.
【0110】また、複数のカメラの設置位置や台数は、
ここで示したものに限られるものではない。例えば、各
ペアカメラを、車両の四隅にそれぞれ配置してもかまわ
ない。The installation positions and the number of cameras are as follows.
It is not limited to those shown here. For example, each paired camera may be arranged at each of the four corners of the vehicle.
【0111】また、本発明に係る画像処理部の機能は、
その全部または一部を、専用のハードウェアを用いて実
現してもかまわないし、ソフトウェアによって実現して
もかまわない。また、本発明に係る画像処理部の機能の
全部または一部をコンピュータに実行させるためのプロ
グラムを格納した記録媒体や伝送媒体を、利用すること
も可能である。例えば、コンピュータを用いた構成にお
いて、画像合成部などの各処理手段を、CPUによって
実行されるソフトウェアによって実現し、ROMまたは
RAMに格納しておいてもかまわない。The function of the image processing unit according to the present invention is as follows.
All or part of it may be realized by using dedicated hardware or may be realized by software. It is also possible to use a recording medium or a transmission medium that stores a program for causing a computer to execute all or some of the functions of the image processing unit according to the present invention. For example, in a configuration using a computer, each processing unit such as the image combining unit may be realized by software executed by the CPU and stored in the ROM or the RAM.
【0112】[0112]
【発明の効果】請求項1の発明によると、当該車両の少
なくとも1つのタイヤの接地部分を含む車両直近部分
が、車両周辺部分よりも、拡縮率が相対的に高い合成画
像が表示されるため、利用者は、車両の直近直下の詳細
な状況と進行方向の先の様子とを、同じ画像から同時に
確認することが可能になる。したがって、路肩などへの
幅寄せのような場合に、自車の路肩への寄せ具合だけで
なく、前進または後退したときの進行方向の先の様子が
分かり、運転に不慣れな運転者であっても、画像を見る
だけで峡路走行での対向車とのすれ違い、幅寄せなどが
至極簡単にできるようになる。According to the first aspect of the present invention, a composite image is displayed in which the enlargement / reduction ratio is relatively high in the vehicle proximate portion including the ground contact portion of at least one tire of the vehicle, compared to the vehicle peripheral portion. The user can simultaneously check the detailed situation immediately under the vehicle and the state ahead of the vehicle from the same image. Therefore, in the case of approaching the shoulder of the road, etc., not only the condition of the own vehicle approaching the shoulder of the road but also the state of the forward direction when moving forward or backward can be understood, and the driver is unfamiliar with driving. Also, just by looking at the image, it becomes extremely easy to pass the vehicle on the way to the other side of the canyon and to adjust the width.
【0113】請求項2の発明によると、車両の移動方向
または移動しうる方向の画像が、仮想視点画像との位置
関係を保持しながら並べて表示されるため、利用者は、
車両周囲の状況だけでなく、前進または後退したときの
進行方向の先の様子までも、同じ画像で同時に確認する
ことが可能になる。したがって、切り返しを伴うような
駐車において前進・後退する場合に、進行方向の様子を
いちいち目視やミラーで確認する必要がなくなり、運転
に集中できるようになる。According to the second aspect of the present invention, the images of the moving direction or the movable direction of the vehicle are displayed side by side while maintaining the positional relationship with the virtual viewpoint image.
Not only the situation around the vehicle but also the state in the traveling direction when the vehicle moves forward or backward can be checked at the same image at the same time. Therefore, when the vehicle moves forward or backward in a parking involving turning back, it is not necessary to check the state of the traveling direction by visual observation or a mirror, and it becomes possible to concentrate on driving.
【0114】請求項3の発明によると、各仮想視点画像
において、撮影範囲の重複部分ではいずれか一方のカメ
ラ画像が削除されずに用いられるので、重複部分に存在
する物体が仮想視点画像上で消失することはない。この
ため、安全運転に必要な情報を必ず含んだ画像を運転者
に提供することが可能になり、運転者は画像だけで安心
して周囲の状況を確認することができる。According to the third aspect of the present invention, in each virtual viewpoint image, one of the camera images is used without being deleted in the overlapping portion of the shooting range, so that the object existing in the overlapping portion is not deleted in the virtual viewpoint image. It never disappears. For this reason, it becomes possible to provide the driver with an image that always includes information necessary for safe driving, and the driver can check the surrounding situation with ease only by the image.
【図1】本発明の各実施形態に係る監視システムの構成
を示すブロック図である。FIG. 1 is a block diagram showing a configuration of a monitoring system according to each embodiment of the present invention.
【図2】カメラ配置の一例を示す図である。FIG. 2 is a diagram showing an example of a camera arrangement.
【図3】図2に示す各カメラの撮像画像の例を示す図で
ある。FIG. 3 is a diagram showing an example of a captured image of each camera shown in FIG.
【図4】本発明の第1の実施形態が適した状況の例であ
って、車両を後退させながら大きくハンドルを切って道
路に誘導させる場合を示す図である。FIG. 4 is an example of a situation in which the first embodiment of the present invention is suitable, and is a diagram showing a case where the vehicle is moved backwards and the steering wheel is largely turned to guide the vehicle to the road.
【図5】本発明の第1の実施形態に係る画面態様の例を
示す図である。FIG. 5 is a diagram showing an example of a screen aspect according to the first embodiment of the present invention.
【図6】円筒モデルを用いた画像生成を示す図である。FIG. 6 is a diagram showing image generation using a cylindrical model.
【図7】お椀モデルを用いた画像生成を示す図である。FIG. 7 is a diagram showing image generation using a bowl model.
【図8】本発明の第2の実施形態に係る画面態様の例を
示す図である。FIG. 8 is a diagram showing an example of a screen mode according to a second embodiment of the present invention.
【図9】本発明の第3の実施形態に係る画面態様の例を
示す図である。FIG. 9 is a diagram showing an example of a screen mode according to a third embodiment of the present invention.
【図10】本発明の第3の実施形態に係る画面態様の例
を示す図である。FIG. 10 is a diagram showing an example of a screen aspect according to a third embodiment of the present invention.
【図11】本発明の第4の実施形態に係る画像の例を示
す図である。FIG. 11 is a diagram showing an example of an image according to the fourth embodiment of the present invention.
【図12】仮想視点画像において境界付近の物体が消え
る条件を説明するための図である。FIG. 12 is a diagram for explaining a condition in which an object near a boundary disappears in a virtual viewpoint image.
【図13】本発明の第5の実施形態に係る画面態様の例
を示す図である。FIG. 13 is a diagram showing an example of a screen aspect according to a fifth embodiment of the present invention.
【図14】本発明の第6の実施形態に係る画面態様の例
を示す図である。FIG. 14 is a diagram showing an example of a screen mode according to a sixth embodiment of the present invention.
【図15】本発明の第6の実施形態に係る画面モードの
切替の例を示す図である。FIG. 15 is a diagram showing an example of screen mode switching according to a sixth embodiment of the present invention.
【図16】図15に示す画面モードの切替を可能にする
システム構成を示すブロック図である。16 is a block diagram showing a system configuration that enables switching of the screen modes shown in FIG.
【図17】本発明の第4の課題を説明するための図であ
る。FIG. 17 is a diagram for explaining the fourth problem of the present invention.
【図18】本発明の第5の課題を説明するための図であ
る。FIG. 18 is a diagram for explaining the fifth problem of the present invention.
【図19】本発明の第2の実施形態に係る画面態様の他
の例である。FIG. 19 is another example of a screen mode according to the second embodiment of the present invention.
【図20】本発明の第3の実施形態に係る画面態様の他
の例である。FIG. 20 is another example of a screen mode according to the third embodiment of the present invention.
【図21】本発明の第3の実施形態に係る画面態様の他
の例である。FIG. 21 is another example of a screen mode according to the third embodiment of the present invention.
11 カメラ 20 画像処理部 30 表示装置 11 cameras 20 Image processing unit 30 display
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI G06T 1/00 330 G06T 1/00 330A (72)発明者 森村 淳 大阪府門真市大字門真1006番地 松下電 器産業株式会社内 (72)発明者 安井 伸彦 大阪府門真市大字門真1006番地 松下電 器産業株式会社内 (72)発明者 石田 明 大阪府門真市大字門真1006番地 松下電 器産業株式会社内 (72)発明者 飯阪 篤 大阪府門真市大字門真1006番地 松下電 器産業株式会社内 (72)発明者 吉田 崇 大阪府門真市大字門真1006番地 松下電 器産業株式会社内 (56)参考文献 特開 平9−37235(JP,A) 特開 平1−123587(JP,A) 国際公00/7373(WO,A1) (58)調査した分野(Int.Cl.7,DB名) B60R 21/00 621 B60R 21/00 628 G06T 1/00 330 ─────────────────────────────────────────────────── ─── Continuation of front page (51) Int.Cl. 7 Identification code FI G06T 1/00 330 G06T 1/00 330A (72) Inventor Jun Morimura 1006 Kadoma, Kadoma City, Osaka Matsushita Electric Industrial Co., Ltd. (72) Inventor Nobuhiko Yasui 1006 Kadoma, Kadoma City, Osaka Prefecture Matsushita Electric Industrial Co., Ltd. (72) Inventor Akira Ishida 1006 Kadoma, Kadoma City Osaka Prefecture Matsushita Electric Industrial Co., Ltd. (72) Inventor Ii Atsushi Osaka 1006 Kadoma, Kadoma, Osaka Prefecture Matsushita Electric Industrial Co., Ltd. (72) Inventor Takashi Yoshida 1006 Kadoma, Kadoma City, Osaka Prefecture (56) Reference: JP-A-9-37235 (JP, A) JP-A-1-123587 (JP, A) International publication 00/7373 (WO, A1) (58) Fields investigated (Int.Cl. 7 , DB name) B60R 21/00 621 B60R 21 / 00 628 G06T 1/00 330
Claims (5)
カメラと、 前記カメラの撮影画像を入力とし、このカメラ画像か
ら、合成画像を生成し、表示装置に表示させる画像処理
部とを備え、 前記画像処理部は、 当該車両の少なくとも1つのタイヤの接地部分を含む車
両直近部分の拡縮率が、車両周辺部分の拡縮率よりも相
対的に高くなるように、かつ、当該車両の側面に沿った
部分が直線性を有するように、合成された合成画像を表
示するモードを有するものであることを特徴とする監視
システム。1. At least one camera for photographing the surroundings of a vehicle, and an image processing unit for inputting a photographed image of the camera, generating a composite image from the camera image, and displaying the synthesized image on a display device, The image processing unit is arranged so that the expansion / contraction ratio of the vehicle immediate vicinity part including the ground contact part of at least one tire of the vehicle is relatively higher than the expansion / contraction ratio of the vehicle peripheral part and along the side surface of the vehicle. A surveillance system having a mode for displaying a synthesized image so that the portion has linearity.
カメラと、 前記カメラの撮影画像を入力とし、このカメラ画像か
ら、仮想視点から見た画像を生成し、表示装置に表示さ
せる画像処理部とを備え、 前記画像処理部は、 車両の移動方向または移動しうる方向の画像を、前記仮
想視点画像との位置関係を保持しながら、前記仮想視点
画像と並べて表示するモードを有することを特徴とする
監視システム。2. At least one camera for photographing the surroundings of a vehicle, and an image processing unit for inputting a photographed image of the camera, generating an image viewed from a virtual viewpoint from the camera image, and displaying the image on a display device. Wherein the image processing unit has a mode of displaying an image of a moving direction or a movable direction of the vehicle side by side with the virtual viewpoint image while maintaining a positional relationship with the virtual viewpoint image. Surveillance system.
像から、仮想視点から見た画像を生成し、表示装置に表
示させる画像処理部とを備え、 前記複数のカメラは、撮影範囲が重複する第1および第
2のカメラを含み、 前記画像処理部は、 前記第1のカメラを用い、かつ、前記第2のカメラを用
いないで作成し、前記第1のカメラの撮影範囲における
前記第2のカメラとの重複部分と非重複部分とを含む第
1の仮想視点画像と、前記第2のカメラを用い、かつ、
前記第1のカメラを用いないで作成し、前記第2のカメ
ラの撮影範囲における前記第1のカメラとの重複部分と
非重複部分とを含む第2の仮想視点画像とを、生成可能
に構成されていることを特徴とする監視システム。3. An image processing unit for inputting a plurality of cameras for photographing the surroundings of a vehicle and images taken by the respective cameras, generating an image viewed from a virtual viewpoint from these camera images, and displaying the image on a display device. And the plurality of cameras include first and second cameras whose shooting ranges overlap, and the image processing unit uses the first camera and does not use the second camera. A first virtual viewpoint image which is created and includes an overlapping portion and a non-overlapping portion with the second camera in a shooting range of the first camera, and the second camera, and
A second virtual viewpoint image created without using the first camera and capable of generating a second virtual viewpoint image including an overlapping portion and a non-overlapping portion with the first camera in the shooting range of the second camera Surveillance system characterized by being.
を、同一画面に並べて表示するモードを有することを特
徴とする監視システム。4. The monitoring system according to claim 3 , wherein the image processing unit has a mode in which the first and second virtual viewpoint images are displayed side by side on the same screen.
メラによって撮影された画像のみを用いた仮想視点画像
であり、 前記第2の仮想視点画像は、車両の前後に設置されたカ
メラによって撮影された画像のみを用いた仮想視点画像
であることを特徴とする監視システム。5. The monitoring system according to claim 3 , wherein the first virtual viewpoint image is a virtual viewpoint image using only an image captured by a camera installed laterally of the vehicle, The virtual viewpoint image of is a virtual viewpoint image using only images captured by cameras installed in front of and behind the vehicle.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001217761A JP3372944B2 (en) | 2000-07-19 | 2001-07-18 | Monitoring system |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000-219513 | 2000-07-19 | ||
JP2000219513 | 2000-07-19 | ||
JP2001217761A JP3372944B2 (en) | 2000-07-19 | 2001-07-18 | Monitoring system |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002224464A Division JP3753681B2 (en) | 2000-07-19 | 2002-08-01 | Monitoring system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2002125224A JP2002125224A (en) | 2002-04-26 |
JP3372944B2 true JP3372944B2 (en) | 2003-02-04 |
Family
ID=26596337
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001217761A Expired - Lifetime JP3372944B2 (en) | 2000-07-19 | 2001-07-18 | Monitoring system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3372944B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1968011A2 (en) | 2007-01-31 | 2008-09-10 | Sanyo Electric Co., Ltd. | Method and apparatus for camera calibration, and vehicle |
WO2009050987A1 (en) | 2007-10-18 | 2009-04-23 | Sanyo Electric Co., Ltd. | Camera calibration device and method, and vehicle |
Families Citing this family (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3916958B2 (en) * | 2002-01-24 | 2007-05-23 | クラリオン株式会社 | Vehicle rear monitoring system and monitoring device |
JP2004007299A (en) * | 2002-06-03 | 2004-01-08 | Nissan Motor Co Ltd | Video display device for vehicle |
JP3871614B2 (en) * | 2002-06-12 | 2007-01-24 | 松下電器産業株式会社 | Driving assistance device |
JP4481042B2 (en) * | 2004-03-10 | 2010-06-16 | クラリオン株式会社 | Parking assistance system |
JP4744823B2 (en) * | 2004-08-05 | 2011-08-10 | 株式会社東芝 | Perimeter monitoring apparatus and overhead image display method |
JP4639753B2 (en) * | 2004-10-25 | 2011-02-23 | 日産自動車株式会社 | Driving assistance device |
JP4899367B2 (en) * | 2005-07-27 | 2012-03-21 | 日産自動車株式会社 | Overhead image display system and overhead image display method |
JP4725233B2 (en) * | 2005-08-02 | 2011-07-13 | 日産自動車株式会社 | Overhead image display system |
US8885045B2 (en) | 2005-08-02 | 2014-11-11 | Nissan Motor Co., Ltd. | Device and method for monitoring vehicle surroundings |
JP4662832B2 (en) * | 2005-09-26 | 2011-03-30 | アルパイン株式会社 | Image display device for vehicle |
JP4681432B2 (en) * | 2005-11-28 | 2011-05-11 | アルパイン株式会社 | In-vehicle peripheral image display device |
US7728879B2 (en) | 2006-08-21 | 2010-06-01 | Sanyo Electric Co., Ltd. | Image processor and visual field support device |
JP2008312004A (en) | 2007-06-15 | 2008-12-25 | Sanyo Electric Co Ltd | Camera system and mechanical apparatus |
JP5369465B2 (en) * | 2008-03-25 | 2013-12-18 | 富士通株式会社 | VEHICLE IMAGE PROCESSING DEVICE, VEHICLE IMAGE PROCESSING METHOD, AND VEHICLE IMAGE PROCESSING PROGRAM |
JP5182042B2 (en) * | 2008-11-28 | 2013-04-10 | 富士通株式会社 | Image processing apparatus, image processing method, and computer program |
JP5091882B2 (en) * | 2009-01-21 | 2012-12-05 | 三洋電機株式会社 | Image processing apparatus and visibility support apparatus and method |
JP5519479B2 (en) * | 2010-11-29 | 2014-06-11 | パナソニック株式会社 | Driving support display device |
JP5861279B2 (en) * | 2011-06-23 | 2016-02-16 | 日産自動車株式会社 | Vehicle monitoring apparatus and vehicle monitoring method |
JP5886068B2 (en) * | 2012-02-08 | 2016-03-16 | 住友重機械工業株式会社 | Display device for crane |
JP6355298B2 (en) * | 2013-05-30 | 2018-07-11 | 住友重機械工業株式会社 | Image generating apparatus and excavator |
JP2016168877A (en) * | 2015-03-11 | 2016-09-23 | 株式会社東海理化電機製作所 | Visual recognition device for vehicle |
JP6610139B2 (en) * | 2015-09-30 | 2019-11-27 | アイシン精機株式会社 | Perimeter monitoring device |
US11394885B2 (en) | 2017-07-31 | 2022-07-19 | Hitachi Kokusai Electric Inc. | Image display system and image display method |
JP6934986B2 (en) * | 2017-07-31 | 2021-09-15 | 株式会社日立国際電気 | Video display system and video display method |
EP3675485B1 (en) | 2017-08-25 | 2021-03-24 | Nissan Motor Co., Ltd. | Surrounding vehicle display method and surrounding vehicle display apparatus |
JP6964276B2 (en) * | 2018-03-07 | 2021-11-10 | パナソニックIpマネジメント株式会社 | Display control device, vehicle peripheral display system and computer program |
DE102018119481A1 (en) * | 2018-08-10 | 2020-02-13 | Connaught Electronics Ltd. | Method for providing an image representation of at least part of an environment of a motor vehicle, computer program product and driver assistance system |
JP2020160334A (en) * | 2019-03-27 | 2020-10-01 | 株式会社コムテック | Imaging apparatus and imaging system |
EP4236304A4 (en) * | 2020-10-23 | 2024-04-03 | Sony Group Corporation | Camera module, information processing system, information processing method, and information processing device |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2696516B2 (en) * | 1987-11-09 | 1998-01-14 | 三菱自動車工業株式会社 | Vehicle safety monitoring device |
JPH0937235A (en) * | 1995-07-19 | 1997-02-07 | Matsushita Electric Ind Co Ltd | Rear side monitor camera equipment |
EP2259220A3 (en) * | 1998-07-31 | 2012-09-26 | Panasonic Corporation | Method and apparatus for displaying image |
-
2001
- 2001-07-18 JP JP2001217761A patent/JP3372944B2/en not_active Expired - Lifetime
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1968011A2 (en) | 2007-01-31 | 2008-09-10 | Sanyo Electric Co., Ltd. | Method and apparatus for camera calibration, and vehicle |
WO2009050987A1 (en) | 2007-10-18 | 2009-04-23 | Sanyo Electric Co., Ltd. | Camera calibration device and method, and vehicle |
Also Published As
Publication number | Publication date |
---|---|
JP2002125224A (en) | 2002-04-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3372944B2 (en) | Monitoring system | |
WO2002007443A1 (en) | Monitoring system | |
JP3753681B2 (en) | Monitoring system | |
US8421863B2 (en) | In-vehicle image display device | |
US8009868B2 (en) | Method of processing images photographed by plural cameras and apparatus for the same | |
JP5858650B2 (en) | Image generation apparatus, image display system, and image generation method | |
US8035575B2 (en) | Driving support method and driving support apparatus | |
US8044781B2 (en) | System and method for displaying a 3D vehicle surrounding with adjustable point of view including a distance sensor | |
JP4907883B2 (en) | Vehicle periphery image display device and vehicle periphery image display method | |
JP3695319B2 (en) | Vehicle periphery monitoring device | |
KR102106572B1 (en) | Around view monitoring system and method by adjusting view angle of camera for vehicle | |
JP2005223524A (en) | Supervisory apparatus for surrounding of vehicle | |
JP5090126B2 (en) | In-vehicle imaging device | |
JP7443705B2 (en) | Peripheral monitoring device | |
JP2009105656A (en) | On-vehicle imaging apparatus | |
JP6014433B2 (en) | Image processing apparatus, image processing method, and image processing system | |
KR102045088B1 (en) | Image displaying Method and Apparatus therefor | |
KR20110080985A (en) | Multiview room mirror for vehicle | |
JP7067225B2 (en) | Vehicle display control device, vehicle display system, vehicle display control method, and program | |
US11601621B2 (en) | Vehicular display system | |
US11027652B2 (en) | Vehicle collision avoidance system | |
JP2012175314A (en) | Vehicle drive support device | |
JP2011230563A (en) | Device for supporting driving on narrow road | |
US20210291734A1 (en) | Techniques for vehicle collision avoidance | |
JP2007102798A (en) | Vehicle circumference monitoring system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
R150 | Certificate of patent or registration of utility model |
Ref document number: 3372944 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20071122 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20081122 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091122 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091122 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101122 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111122 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121122 Year of fee payment: 10 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121122 Year of fee payment: 10 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131122 Year of fee payment: 11 |
|
EXPY | Cancellation because of completion of term |