JP2007008401A - Device and method for detecting position of image pickup device - Google Patents

Device and method for detecting position of image pickup device Download PDF

Info

Publication number
JP2007008401A
JP2007008401A JP2005194610A JP2005194610A JP2007008401A JP 2007008401 A JP2007008401 A JP 2007008401A JP 2005194610 A JP2005194610 A JP 2005194610A JP 2005194610 A JP2005194610 A JP 2005194610A JP 2007008401 A JP2007008401 A JP 2007008401A
Authority
JP
Japan
Prior art keywords
image
camera
imaging device
images
position detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005194610A
Other languages
Japanese (ja)
Other versions
JP4756938B2 (en
Inventor
Koichi Abe
光一 阿部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alpine Electronics Inc
Original Assignee
Alpine Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alpine Electronics Inc filed Critical Alpine Electronics Inc
Priority to JP2005194610A priority Critical patent/JP4756938B2/en
Publication of JP2007008401A publication Critical patent/JP2007008401A/en
Application granted granted Critical
Publication of JP4756938B2 publication Critical patent/JP4756938B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a "device and method for detecting a position of an image pickup device" for determining a mounting position of a camera even when a versatile camera whose mounting position is not decided is mounted to one's own vehicle. <P>SOLUTION: The way how each image is overlapped is determined by an image determination part 4 by analyzing feature points of images captured by a plurality of the cameras 2a-2d. The mounting position is specified by a position detection part 5 on the basis of the determination results. Thus, it is determined by which camera each of the images captured by a plurality of the cameras 2a-2d is captured. Consequently, it is possible to determine the mounting position even when using the versatile camera whose mounting position is not decided. It is also possible to facilitate the mounting work since it is not necessary to select a camera corresponding to the mounting position or to execute the setting work of positional information when mounting a plurality of the cameras 2a-2d. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、自車両の周辺の画像を撮影するために自車両の周囲に取り付けられた複数の撮像装置の取り付け位置を検出する撮像装置の位置検出装置及び撮像装置の位置検出方法に関する。   The present invention relates to a position detection apparatus for an image pickup apparatus and a position detection method for the image pickup apparatus that detect attachment positions of a plurality of image pickup apparatuses attached around the own vehicle in order to take an image around the own vehicle.

従来、自車両に複数のカメラを設置し、複数のカメラにより自車両の周囲の画像を撮影して、撮影した画像を自車両内に設置したディスプレイ等の表示装置に表示する技術が提案されている。ドライバーは、自車両の表示装置に表示された画像を確認することで、自車両と障害物との距離を把握し、自車両と障害物との衝突や他車両への追突等の交通事故を防ぐように運転を行う。   Conventionally, a technique has been proposed in which a plurality of cameras are installed in the host vehicle, images around the host vehicle are captured by the plurality of cameras, and the captured images are displayed on a display device such as a display installed in the host vehicle. Yes. By checking the image displayed on the display device of the host vehicle, the driver can grasp the distance between the host vehicle and the obstacle, and perform a traffic accident such as a collision between the host vehicle and the obstacle or a rear-end collision with another vehicle. Drive to prevent.

また、自車両に複数のカメラを設置し、複数のカメラにより撮影された画像をもとに、自車両の上方の仮想視点から見た画像を生成し、この画像をディスプレイ等の表示装置に表示することで、自車両の周辺を監視する技術が提案されている。   In addition, a plurality of cameras are installed in the host vehicle, and an image viewed from a virtual viewpoint above the host vehicle is generated based on images taken by the plurality of cameras, and the image is displayed on a display device such as a display. Thus, a technique for monitoring the periphery of the host vehicle has been proposed.

ところで、自車両に複数のカメラを設置する場合に、それぞれのカメラが取り付けられている位置が特定されていなければ、トップビュー画像を生成することができない。そこで、従来は、図5(a)に示すように、複数のカメラ20a〜20dを取り付ける際に、複数のカメラ20a〜20dとこれらが撮影した画像を取得するための複数の画像入力部21a〜21dとを1対1に対応付けて設け、複数のカメラ20a〜20dと画像入力部21a〜21dとの間を各取り付け位置専用の映像ケーブルで接続していた。   By the way, when a plurality of cameras are installed in the host vehicle, a top view image cannot be generated unless the position where each camera is attached is specified. Therefore, conventionally, as shown in FIG. 5A, when the plurality of cameras 20a to 20d are attached, the plurality of cameras 20a to 20d and a plurality of image input units 21a to 21a for acquiring images captured by these cameras 20a to 20d. 21d is provided in a one-to-one correspondence, and the plurality of cameras 20a to 20d and the image input units 21a to 21d are connected by a video cable dedicated to each mounting position.

しかしながら、このような方法では、各カメラ20a〜20dに対応する画像入力部21a〜21dを用意しなければならないという問題があった。また、画像入力部21a〜21dは、ECU(Electric Control Unit)により構成されるが、各カメラ20a〜20dと各画像入力部21a〜21dとが専用の映像ケーブルにより接続されているので、ケーブルが増えてしまうという問題があった。   However, such a method has a problem that the image input units 21a to 21d corresponding to the cameras 20a to 20d must be prepared. Further, the image input units 21a to 21d are configured by an ECU (Electric Control Unit), but the cameras 20a to 20d and the image input units 21a to 21d are connected by a dedicated video cable. There was a problem of increasing.

これを解決するために、例えば図5(b)に示すように、複数のカメラ20a〜20dを取り付ける際に、複数のカメラ20a〜20dにより撮影した画像を取得するための画像入力部23を1つだけ備え、複数のカメラ20a〜20dと画像入力部23とをバス接続する技術が提案されている。   In order to solve this problem, for example, as shown in FIG. 5B, when attaching the plurality of cameras 20a to 20d, an image input unit 23 for acquiring images taken by the plurality of cameras 20a to 20d is provided. A technique for providing a bus connection between a plurality of cameras 20a to 20d and the image input unit 23 has been proposed.

しかしながら、このような方法では、複数のカメラ20a〜20dがどこに取り付けられているかをECUが識別できるようにするために、カメラの取り付け時に位置情報を設定する作業が必要になる。なお、このような作業を無くすために、複数のカメラ20a〜20dにそれぞれ専用のID(Identification)を設定し、複数のカメラ20a〜20dにより撮像した画像をバス上に流す際に、このIDも一緒に流すという方法が考えられる。しかし、この方法では、それぞれのカメラ20a〜20dに専用のIDが付されているので、それぞれの位置専用のカメラとなってしまい、カメラの汎用性が無くなってしまうという問題があった。   However, in such a method, in order to allow the ECU to identify where the plurality of cameras 20a to 20d are attached, it is necessary to set position information when the cameras are attached. In order to eliminate such work, dedicated ID (Identification) is set for each of the plurality of cameras 20a to 20d, and when the images captured by the plurality of cameras 20a to 20d are flowed on the bus, this ID is also set. A method of flowing together is conceivable. However, this method has a problem that since the cameras 20a to 20d are assigned with dedicated IDs, the cameras are dedicated to the respective positions, and the versatility of the cameras is lost.

ところで、自車両に複数のカメラを設置し、複数のカメラにより自車両の周囲の画像を撮影して、撮影した画像を自車両内に設置したディスプレイ等の表示装置に表示する場合に、表示装置に表示された画像を撮影しているカメラが自車両のどこに設置されているかを表示する技術が提案されている(例えば特許文献1など)。
特開2004−56683号公報
By the way, when a plurality of cameras are installed in the host vehicle, images around the host vehicle are captured by the plurality of cameras, and the captured images are displayed on a display device such as a display installed in the host vehicle. There has been proposed a technique for displaying where a camera that captures the image displayed on the vehicle is installed (for example, Patent Document 1).
JP 2004-56683 A

しかしながら、この特許文献1は、取り付け位置が決められた専用のカメラを用いて自車両の周囲の画像を撮影し、表示装置に表示された画像がどの位置のカメラにより撮影されたものであるかを単に示すに過ぎないものである。すなわち、上記特許文献1に記載された従来の技術は、それぞれのカメラがどこに取り付けられているかが予め分かっていることを前提とする技術で、カメラの取り付け位置を判定することはできない。   However, in this patent document 1, an image around the host vehicle is photographed using a dedicated camera whose attachment position is determined, and the camera at which position the image displayed on the display device is photographed. Is merely an indication. That is, the conventional technique described in Patent Document 1 is a technique based on the premise that it is known in advance where each camera is mounted, and the camera mounting position cannot be determined.

本発明は、このような問題を解決するために成されたものであり、取り付け位置が決められていない汎用性のあるカメラを車両に取り付けた場合でも、ユーザが位置情報の設定作業をすることなく、カメラの取り付け位置を判定することができるようにすることを目的とする。   The present invention has been made to solve such a problem, and even when a versatile camera whose mounting position is not determined is mounted on a vehicle, the user can perform position information setting work. It is an object to make it possible to determine the mounting position of a camera.

上記した課題を解決するために、本発明では、複数のカメラにより撮影された複数の画像を入力し、入力した各画像の特徴点を解析して各画像の重なり方を判定し、この判定結果に基づいて複数のカメラの取り付け位置を特定するようにしている。   In order to solve the above-described problems, the present invention inputs a plurality of images taken by a plurality of cameras, analyzes the feature points of each input image, determines how to overlap each image, and the determination result Based on the above, the mounting positions of a plurality of cameras are specified.

上記のように構成した本発明によれば、複数のカメラにより撮影された複数の画像における他の画像との重なり方により、それらの画像がどのカメラにより撮影された画像であるかが判定されるので、取り付け位置が決められていない汎用性のあるカメラを車両に取り付けた場合でも、カメラの取り付け位置を判定することができる。従って、カメラを取り付ける際に、取り付け位置に応じた専用のカメラを選択したり位置情報の設定作業をしたりする必要がなくなり、カメラの取り付け作業が容易になる。   According to the present invention configured as described above, it is determined by which camera the images are captured based on how the plurality of images captured by the plurality of cameras overlap with other images. Therefore, even when a versatile camera whose attachment position is not determined is attached to the vehicle, the attachment position of the camera can be determined. Therefore, when attaching a camera, it is not necessary to select a dedicated camera corresponding to the attachment position or to perform a setting operation of position information, and the camera attachment operation is facilitated.

以下、本発明の一実施形態を図面に基づいて説明する。図1は、本実施形態による位置検出装置1を含む画像表示装置の構成例を示すブロック図である。図1において、2は撮像装置であり、自車両の周辺を撮影するための第1のカメラ2a、第2のカメラ2b、第3のカメラ2c、第4のカメラ2dにより構成されている。ここで、第1のカメラ2a〜第4のカメラ2dには位置IDなどが設定されておらず、第1のカメラ2a〜第4のカメラ2dを自車両のどの位置に取り付けることも可能である。また、第1のカメラ2a〜第4のカメラ2dは、自車両から見て前方、左側方、右側方、後方をそれぞれ撮影する。   Hereinafter, an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram illustrating a configuration example of an image display device including a position detection device 1 according to the present embodiment. In FIG. 1, reference numeral 2 denotes an image pickup apparatus, which includes a first camera 2a, a second camera 2b, a third camera 2c, and a fourth camera 2d for photographing the periphery of the host vehicle. Here, no position ID or the like is set for the first camera 2a to the fourth camera 2d, and the first camera 2a to the fourth camera 2d can be attached to any position of the host vehicle. . Further, the first camera 2a to the fourth camera 2d respectively photograph the front, left side, right side, and rear when viewed from the host vehicle.

図2に示すように、自車両13の前方に配置されるフロントカメラ12a(第1のカメラ2a〜第4のカメラ2dの何れか1つ)は、自車両13の前方の撮影範囲14aを撮影する。また、自車両13の左側方に配置される左サイドカメラ12b(残り3つのカメラの中の何れか1つ)は、自車両13の左側方の撮影範囲14bを撮影する。また、自車両13の右側方に配置される右サイドカメラ12c(残り2つのカメラの中の何れか1つ)は、自車両13の右側方の撮影範囲14cを撮影する。また、自車両13の後方に配置されるリアカメラ12d(残り1つのカメラ)は、自車両13の後方の撮影範囲14dを撮影する。   As shown in FIG. 2, the front camera 12 a (any one of the first camera 2 a to the fourth camera 2 d) disposed in front of the host vehicle 13 captures a shooting range 14 a in front of the host vehicle 13. To do. Further, the left side camera 12b (any one of the remaining three cameras) disposed on the left side of the host vehicle 13 captures the shooting range 14b on the left side of the host vehicle 13. Also, the right side camera 12c (any one of the remaining two cameras) arranged on the right side of the host vehicle 13 captures the shooting range 14c on the right side of the host vehicle 13. Further, the rear camera 12d (remaining one camera) disposed behind the host vehicle 13 captures a shooting range 14d behind the host vehicle 13.

ここで、左サイドカメラ12b及び右サイドカメラ12cは、フロントカメラ12a及びリアカメラ12dよりも自車両13の高い位置(例えば、左サイドカメラ12b及び右サイドカメラ12cは1メートルの高さ、フロントカメラ12a及びリアカメラ12dは0.6メートルの高さ)に取り付けられているので、撮影範囲14b,14cが撮影範囲14a,14dより広くなっている。また、左サイドカメラ12b及び右サイドカメラ12cは、自車両13の前方寄りに取り付けられている。そのため、フロントカメラ12aの撮影範囲14aと左サイドカメラ12bの撮影範囲14bとは重複する領域15aが存在する。また、フロントカメラ12aの撮影範囲14aと右サイドカメラ12cの撮影範囲14cとは重複する領域15bが存在する。また、左サイドカメラ12bの撮影範囲14b及び右サイドカメラ12cの撮影範囲14cとリアカメラ12dの撮影範囲14dとは重複する領域が存在しない。   Here, the left side camera 12b and the right side camera 12c are positioned higher than the front camera 12a and the rear camera 12d (for example, the left side camera 12b and the right side camera 12c are 1 meter high, 12a and rear camera 12d are mounted at a height of 0.6 meters), the shooting ranges 14b and 14c are wider than the shooting ranges 14a and 14d. Further, the left side camera 12 b and the right side camera 12 c are attached to the front side of the host vehicle 13. Therefore, there is an area 15a where the shooting range 14a of the front camera 12a and the shooting range 14b of the left side camera 12b overlap. Further, there is a region 15b where the shooting range 14a of the front camera 12a and the shooting range 14c of the right side camera 12c overlap. Further, there is no overlapping area between the shooting range 14b of the left side camera 12b, the shooting range 14c of the right side camera 12c, and the shooting range 14d of the rear camera 12d.

3は画像入力部であり、第1のカメラ2a〜第4のカメラ2dがバス接続されており、第1のカメラ2a〜第4のカメラ2dにより撮影された画像をバスを介して入力する。   Reference numeral 3 denotes an image input unit, to which a first camera 2a to a fourth camera 2d are connected via a bus, and images taken by the first camera 2a to the fourth camera 2d are input via the bus.

4は画像判定部であり、第1のカメラ2a〜第4のカメラ2dにて撮影された画像を画像入力部3より入力する。また、画像判定部4は、第1のカメラ2a〜第4のカメラ2dにより撮影された画像間の特徴点を解析する。具体的には、画像判定部4は、各画像の撮影範囲のうち両側における所定範囲内の領域において特徴点を解析し、各画像間で類似度が一定値以上の特徴点が存在するか否か、存在するとしたらそれが各画像のどの位置にあるものかを判定する。ここで、特徴点とは、画像の明暗や色調が他の部分と異なる部分であり、その形状などを比較することで類似度を判断することができる。そして、類似度が一定値以上の特徴点同士を「一致」と判断する。   Reference numeral 4 denotes an image determination unit which inputs images taken by the first camera 2 a to the fourth camera 2 d from the image input unit 3. Further, the image determination unit 4 analyzes feature points between images taken by the first camera 2a to the fourth camera 2d. Specifically, the image determination unit 4 analyzes feature points in a region within a predetermined range on both sides of the shooting range of each image, and whether there is a feature point having a similarity greater than or equal to a certain value between the images. If it exists, it is determined in which position of each image it exists. Here, the feature point is a portion where the brightness and color tone of the image is different from other portions, and the degree of similarity can be determined by comparing the shape and the like. Then, it is determined that feature points having a similarity equal to or higher than a certain value are “match”.

そして、画像判定部4は、各画像における特徴点の解析結果に基づいて、各画像の重なり方を判定する。すなわち、図2のように、フロントカメラ12aの撮影範囲14aの画像と左サイドカメラ12bの撮影範囲14bの画像とは領域15aで重なり、フロントカメラ12aの撮影範囲14aの画像と右サイドカメラ12cの撮影範囲14cの画像とは領域15bで重なり、左サイドカメラ12bの撮影範囲14bの画像と右サイドカメラ12cの撮影範囲14cの画像とリアカメラ12dの撮影範囲14dの画像との間に重なりは存在しない。画像判定部4は、一致する特徴点がどこにあるかを見ることで、どの画像とどの画像との間に重なりがあるか、又は重なりがないかを判別することができる。   And the image determination part 4 determines how to overlap each image based on the analysis result of the feature point in each image. That is, as shown in FIG. 2, the image of the shooting range 14a of the front camera 12a and the image of the shooting range 14b of the left side camera 12b overlap in the region 15a, and the image of the shooting range 14a of the front camera 12a and the image of the right side camera 12c. The image of the shooting range 14c overlaps in the region 15b, and there is an overlap between the image of the shooting range 14b of the left side camera 12b, the image of the shooting range 14c of the right side camera 12c, and the image of the shooting range 14d of the rear camera 12d. do not do. The image determination unit 4 can determine which image has which overlap or whether there is no overlap by seeing where the matching feature points are.

5は位置検出部であり、各画像がフロントカメラ12a〜リアカメラ12dの中のどのカメラにより撮影された画像であるかを画像判定部4の判定結果に基づき特定する。具体的には、位置検出部5は、左右の領域に他の画像間で一致する特徴点を持つという判定結果の画像が存在するか否かを調べる。そのような画像が存在する場合には、位置検出部5は、その画像がフロントカメラ12aにより撮影された画像であると判断する。また、位置検出部5は、右側の領域にのみ他の画像間で一致する特徴点を持つという判定結果の画像を左サイドカメラ12bにより撮影された画像であると判断する。また、位置検出部5は、左側の領域にのみ他の画像間で一致する特徴点を持つという判定結果の画像を右サイドカメラ12cにより撮影された画像であると判断する。また、位置検出部5は、他の画像間で一致する特徴点を持たないという判定結果の画像をリアカメラ12dにより撮影された画像であると判断する。   Reference numeral 5 denotes a position detection unit, which identifies which of the front cameras 12a to 12d is taken by each image based on the determination result of the image determination unit 4. Specifically, the position detection unit 5 checks whether there is an image of a determination result that has a feature point that matches between other images in the left and right regions. When such an image exists, the position detection unit 5 determines that the image is an image taken by the front camera 12a. In addition, the position detection unit 5 determines that the image of the determination result that only the right region has a matching feature point between the other images is an image taken by the left side camera 12b. In addition, the position detection unit 5 determines that the image of the determination result that the feature point matches between the other images only in the left region is an image captured by the right side camera 12c. Further, the position detection unit 5 determines that the image of the determination result that there is no matching feature point between the other images is an image captured by the rear camera 12d.

例えば、図3に示すように、画像判定部4は、第1の画像Aの左側の領域の特徴点16aが第2の画像Bの右側の領域の特徴点16cと一致し、第1の画像Aの右側の領域の特徴点16bが第3の画像Cの左側の領域の特徴点16dと一致すると判断する。これにより、画像判定部4は、第1の画像Aが、左右の領域において他の画像(第2の画像B及び第3の画像C)との重なりを持つと判定する。位置検出部5は、画像判定部4による判定結果に応じて、第1の画像Aがフロントカメラ12aにより撮影された画像であると判断する。   For example, as illustrated in FIG. 3, the image determination unit 4 matches the feature point 16a in the left region of the first image A with the feature point 16c in the right region of the second image B. It is determined that the feature point 16b in the right region of A matches the feature point 16d in the left region of the third image C. Thereby, the image determination unit 4 determines that the first image A has an overlap with other images (the second image B and the third image C) in the left and right regions. The position detection unit 5 determines that the first image A is an image taken by the front camera 12a according to the determination result by the image determination unit 4.

また、画像判定部4は、第2の画像Bの左側の領域には他の画像間で一致する特徴点がなく、右側の領域の特徴点16cが第1の画像Aの特徴点16aと一致すると判断する。これにより、画像判定部4は、第2の画像Bが、右側の領域においてのみ他の画像(第1の画像A)と重なりを持つと判定する。位置検出部5は、画像判定部4による判定結果に応じて、第2の画像Bが左サイドカメラ12bにより撮影された画像であると判断する。   Further, the image determination unit 4 has no feature point that matches between the other images in the left region of the second image B, and the feature point 16c of the right region matches the feature point 16a of the first image A. Judge that. Thereby, the image determination unit 4 determines that the second image B overlaps with another image (first image A) only in the right region. The position detection unit 5 determines that the second image B is an image taken by the left side camera 12b according to the determination result by the image determination unit 4.

また、画像判定部4は、第3の画像Cの右側の領域には他の画像間で一致する特徴点がなく、左側の領域の特徴点16dが第1の画像Aの特徴点16bと一致すると判断する。これにより、画像判定部4は、第3の画像Cが、左側の領域においてのみ他の画像(第1の画像A)と重なりを持つと判定する。位置検出部5は、画像判定部4による判定結果に応じて、第3の画像Cが右サイドカメラ12cにより撮影された画像であると判断する。   Further, the image determination unit 4 does not have a matching feature point between the other images in the right region of the third image C, and the feature point 16d of the left region matches the feature point 16b of the first image A. Judge that. Thereby, the image determination unit 4 determines that the third image C overlaps with another image (first image A) only in the left region. The position detection unit 5 determines that the third image C is an image taken by the right side camera 12c according to the determination result by the image determination unit 4.

また、画像判定部4は、第4の画像Dの右側の領域にも左側の領域にも他の画像間で一致する特徴点がないと判断する。これにより、画像判定部4は、第4の画像Dが、他の画像(第1の画像A〜第3の画像C)と重なりを持たないと判定する。位置検出部5は、画像判定部4による判定結果に応じて、第4の画像Dがリアカメラ12dにより撮影された画像であると判断する。なお、本実施形態では、特徴点16a及び特徴点16cと特徴点16b及び特徴点16dとは異なる形状であるがこれに限定されない。例えば、全ての特徴点が同じ形状であっても良い。   Further, the image determination unit 4 determines that there is no matching feature point between the other images in the right region and the left region of the fourth image D. Thereby, the image determination unit 4 determines that the fourth image D does not overlap with the other images (the first image A to the third image C). The position detection unit 5 determines that the fourth image D is an image taken by the rear camera 12d according to the determination result by the image determination unit 4. In the present embodiment, the feature points 16a and 16c and the feature points 16b and 16d have different shapes, but are not limited thereto. For example, all feature points may have the same shape.

なお、図2のように、各画像の向きは90度ずつずれている。そのため、図3のように、領域15aに存在する第1の画像Aの特徴点16aと第2の画像Bの特徴点16cとは向きが90度ずれている。また、領域15bに存在する第1の画像Aの特徴点16bと第3の画像Cの特徴点16dとは同様に向きが90度ずれている。そこで、ある画像(例えば第1の画像A)について特徴点の解析をする際に、その他の画像(第2の画像B〜第4の画像D)を左に90度回転させた状態でパターンマッチングをすることにより、特徴点16aと特徴点16cとの類似度をより正確に判定することができる。また、その他の画像(第2の画像B〜第4の画像D)を右に90度回転させた状態でパターンマッチングすることにより、特徴点16bと特徴点16dとの類似度をより正確に判定することができる。   As shown in FIG. 2, the orientation of each image is shifted by 90 degrees. Therefore, as shown in FIG. 3, the direction of the feature point 16a of the first image A and the feature point 16c of the second image B existing in the region 15a is shifted by 90 degrees. Similarly, the feature point 16b of the first image A and the feature point 16d of the third image C existing in the region 15b are shifted by 90 degrees. Therefore, when analyzing feature points for an image (for example, the first image A), pattern matching is performed with the other images (second image B to fourth image D) rotated 90 degrees to the left. By doing this, the similarity between the feature point 16a and the feature point 16c can be determined more accurately. In addition, pattern matching is performed with the other images (second image B to fourth image D) rotated 90 degrees to the right, thereby more accurately determining the similarity between the feature point 16b and the feature point 16d. can do.

また、位置検出部5は、第1の画像A〜第4の画像Dがフロントカメラ12a〜リアカメラ12dのどのカメラにより撮影された画像であるかを示す位置情報を第1のカメラ2a〜第4のカメラ2dを識別する情報と共に位置記憶部6に記憶する。このように、位置記憶部6は、第1のカメラ2a〜第4のカメラ2dがフロントカメラ12a〜リアカメラ12dの何れのカメラであるかを示す位置情報を記憶する。そのため、撮像装置2の位置検出が行われた後には、画像判定部4に入力した画像は、位置記憶部6に記憶された位置情報により、撮影したカメラを特定した状態で後述する画像生成部7に出力される。   In addition, the position detection unit 5 displays position information indicating which of the front camera 12a to the rear camera 12d is used for the first image A to the fourth image D as the first camera 2a to the first camera 2a. The information is stored in the position storage unit 6 together with information for identifying the four cameras 2d. As described above, the position storage unit 6 stores position information indicating which of the front camera 12a to the rear camera 12d is the first camera 2a to the fourth camera 2d. Therefore, after the position detection of the imaging device 2 is performed, the image input to the image determination unit 4 is an image generation unit which will be described later in a state where the photographed camera is specified by the position information stored in the position storage unit 6. 7 is output.

画像生成部7は、画像処理部8、マッピングテーブル9、画像記憶部10により構成されている。画像処理部8では、マッピングテーブル9に記憶されている変換情報に従って、自車両13の周辺を上方から見たときの背景画像をそれぞれ生成する。この状態では、自車両13を上方から見た画像は形成されない。   The image generation unit 7 includes an image processing unit 8, a mapping table 9, and an image storage unit 10. The image processing unit 8 generates a background image when the periphery of the host vehicle 13 is viewed from above according to the conversion information stored in the mapping table 9. In this state, an image when the host vehicle 13 is viewed from above is not formed.

マッピングテーブル9は、画像判定部4にて位置情報を付加された各カメラの画像の画素データと自車両13の周辺を上方の仮想視点から見た背景画像の画素データとの対応関係を記載したテーブルであり、撮影された画像のある画素が背景画像のどの画素に対応するかを示す変換情報を記載している。画像記憶部10は、自車両13を上方から見た画像を示す自車両画像データを記憶しており、その自車両画像データが必要に応じて画像処理部8により読み出される。   The mapping table 9 describes the correspondence between the pixel data of the image of each camera to which the position information is added by the image determination unit 4 and the pixel data of the background image when the periphery of the host vehicle 13 is viewed from the upper virtual viewpoint. It is a table and describes conversion information indicating which pixel of a background image corresponds to a certain pixel of a photographed image. The image storage unit 10 stores host vehicle image data indicating an image of the host vehicle 13 as viewed from above, and the host vehicle image data is read by the image processing unit 8 as necessary.

画像処理部8は、位置記憶部6から読み出された位置情報に従って背景画像を生成する。例えば、フロントカメラ12aにより撮影された画像を自車両13の前方に配置し、左サイドカメラ12bにより撮影された画像を自車両13の左側方に配置し、右サイドカメラ12cにより撮影された画像を自車両13の右側方に配置し、リアカメラ12dにより撮影された画像を自車両13の後方に配置するような背景画像を生成する。また、画像処理部8は、自車両13を上方から見た画像を示す自車両画像データを画像記憶部10から読み出し、背景画像の所定の位置(例えば背景画像における自車両13が存在する位置)に合成して画像を生成する。また、11は表示装置であり、画像処理部8により生成された画像を表示する。   The image processing unit 8 generates a background image according to the position information read from the position storage unit 6. For example, an image photographed by the front camera 12a is arranged in front of the host vehicle 13, an image photographed by the left side camera 12b is arranged on the left side of the host vehicle 13, and an image photographed by the right side camera 12c is arranged. A background image is generated such that it is arranged on the right side of the host vehicle 13 and an image photographed by the rear camera 12d is arranged behind the host vehicle 13. In addition, the image processing unit 8 reads out own vehicle image data indicating an image of the host vehicle 13 as viewed from above from the image storage unit 10, and a predetermined position of the background image (for example, a position where the host vehicle 13 exists in the background image). To generate an image. Reference numeral 11 denotes a display device, which displays an image generated by the image processing unit 8.

次に、本実施形態による撮像装置の位置検出装置1の動作及び撮像装置の位置検出方法について説明する。図4は、本実施形態による撮像装置の位置検出装置1の動作及び撮像装置の位置検出方法を示すフローチャートである。図4において、自車両13に取り付けられた第1のカメラ2a〜第4のカメラ2dは、自車両13の周辺を撮影し、撮影した画像を画像入力部3に出力している。   Next, the operation of the position detection device 1 of the imaging apparatus and the position detection method of the imaging apparatus according to the present embodiment will be described. FIG. 4 is a flowchart illustrating the operation of the position detection device 1 of the imaging apparatus and the position detection method of the imaging apparatus according to the present embodiment. In FIG. 4, the first camera 2 a to the fourth camera 2 d attached to the host vehicle 13 capture the periphery of the host vehicle 13 and output the captured image to the image input unit 3.

画像判定部4では、第1のカメラ2a〜第4のカメラ2dにて撮影された画像を画像入力部3より取得する。そして、画像判定部4は、画像入力部3より取得した各画像の特徴点を解析し、各画像における特徴点の解析結果に基づいて、各画像の重なり方を調べる(ステップS1)。画像判定部4では、ある画像(例えば、第1のカメラ2aにより撮影された画像)を抽出し、その画像が左右の領域において他の画像との重なりを持つか否かを判定する(ステップS2)。左右の領域において他の画像との重なりを持つと画像判定部4にて判断した場合には(ステップS2にてYES)、位置検出部5は、その画像がフロントカメラ12aにより撮影された画像である、すなわち、第1のカメラ2aはフロントカメラ12aであると判断する(ステップS3)。そして、ステップS9にジャンプする。   In the image determination unit 4, images captured by the first camera 2 a to the fourth camera 2 d are acquired from the image input unit 3. Then, the image determination unit 4 analyzes the feature points of each image acquired from the image input unit 3, and examines how the images overlap based on the analysis result of the feature points in each image (step S1). The image determination unit 4 extracts a certain image (for example, an image photographed by the first camera 2a), and determines whether or not the image overlaps with other images in the left and right regions (step S2). ). If the image determination unit 4 determines that there is an overlap with other images in the left and right regions (YES in step S2), the position detection unit 5 is an image taken by the front camera 12a. That is, it is determined that the first camera 2a is the front camera 12a (step S3). Then, the process jumps to step S9.

一方、左右の領域において他の画像との重なりを持たないと画像判定部4にて判断した場合には(ステップS2にてNO)、画像判定部4は、その画像が右の領域のみにおいて他の画像との重なりを持つか否かを調べる(ステップS4)。右の領域のみにおいて他の画像との重なりを持つと画像判定部4にて判断した場合には(ステップS4にてYES)、位置検出部5は、その画像が左サイドカメラ12bにより撮影された画像である、すなわち、第1のカメラ2aは左サイドカメラ12bであると判断する(ステップS5)。そして、ステップS9にジャンプする。   On the other hand, when the image determination unit 4 determines that there is no overlap with other images in the left and right regions (NO in step S2), the image determination unit 4 determines that the image is only in the right region. It is checked whether or not there is an overlap with the image (step S4). If the image determination unit 4 determines that there is an overlap with another image only in the right region (YES in step S4), the position detection unit 5 captures the image by the left side camera 12b. It is determined that the image is an image, that is, the first camera 2a is the left side camera 12b (step S5). Then, the process jumps to step S9.

一方、右の領域のみにおいて他の画像との重なりを持たないと画像判定部4にて判断した場合には(ステップS4にてNO)、画像判定部4は、その画像が左の領域のみにおいて他の画像との重なりを持つか否かを調べる(ステップS6)。左の領域のみにおいて他の画像との重なりを持つと画像判定部4にて判断した場合には(ステップS6にてYES)、位置検出部5は、その画像が右サイドカメラ12cにより撮影された画像である、すなわち、第1のカメラ2aは右サイドカメラ12cであると判断する(ステップS7)。そして、ステップS9にジャンプする。   On the other hand, when image determination unit 4 determines that there is no overlap with other images only in the right region (NO in step S4), image determination unit 4 determines that the image is only in the left region. It is checked whether or not there is an overlap with another image (step S6). When the image determination unit 4 determines that there is an overlap with other images only in the left region (YES in step S6), the position detection unit 5 captures the image with the right side camera 12c. It is determined that the image is an image, that is, the first camera 2a is the right side camera 12c (step S7). Then, the process jumps to step S9.

一方、左の領域のみにおいて他の画像との重なりを持たないと画像判定部4にて判断した場合には(ステップS6にてNO)、画像判定部4は、その画像がリアカメラ12dにより撮影された画像である、すなわち、第1のカメラ2aはリアカメラ12dであると判断する(ステップS8)。   On the other hand, when image determination unit 4 determines that there is no overlap with other images only in the left region (NO in step S6), image determination unit 4 captures the image with rear camera 12d. That is, it is determined that the first camera 2a is the rear camera 12d (step S8).

ステップS9では、位置検出部5は、第1のカメラ2a〜第4のカメラ2dがフロントカメラ12a〜リアカメラ12dのどのカメラであるかを示す位置情報を第1のカメラ2a〜第4のカメラ2dを識別する情報と共に位置記憶部6に記憶する(ステップS9)。そして、位置検出部5は、全てのカメラ(第1のカメラ2a〜第4のカメラ2d)について取り付け位置が決まったか否かを調べる(ステップS10)。全てのカメラについて位置が決まったと位置検出部5にて判断した場合には(ステップS10にてYES)、処理を終了する。   In step S9, the position detection unit 5 displays position information indicating which of the front camera 12a to the rear camera 12d is the first camera 2a to the fourth camera 2d, the first camera 2a to the fourth camera. The information for identifying 2d is stored in the position storage unit 6 (step S9). Then, the position detection unit 5 checks whether or not the attachment positions have been determined for all the cameras (first camera 2a to fourth camera 2d) (step S10). If position detection unit 5 determines that positions have been determined for all cameras (YES in step S10), the process ends.

一方、全てのカメラについて位置が決まっていないと位置検出部5にて判断した場合には(ステップS10にてNO)、次の画像(例えば第2のカメラ2bにより撮影された画像)を選択する(ステップS11)。そして、ステップS2の処理に戻る。なお、本実施形態では、フロントカメラ12aにより撮影された画像を最初に特定しているが、これに限定されない。例えば、左サイドカメラ12bや右サイドカメラ12c、リアカメラ12dにより撮影された画像を最初に特定し、その後、他の画像を特定するようにしても良い。   On the other hand, when the position detection unit 5 determines that the positions of all the cameras have not been determined (NO in step S10), the next image (for example, an image photographed by the second camera 2b) is selected. (Step S11). Then, the process returns to step S2. In the present embodiment, the image taken by the front camera 12a is first identified, but the present invention is not limited to this. For example, an image captured by the left side camera 12b, the right side camera 12c, and the rear camera 12d may be specified first, and then another image may be specified.

以上詳しく説明したように、本実施形態では、第1のカメラ2a〜第4のカメラ2dにより撮影された画像を取得し、その画像の特徴点を画像判定部4により解析して各画像の重なり方を判定している。また、位置検出部5は、画像の重なり方に関する画像判定部4の判定結果に基づいて、どの画像がどのカメラによって撮影されたものであるかを特定するようにしている。これにより、第1のカメラ2aにより撮影された画像が左右の領域において他の画像との重なりを持つことから、第1のカメラ2aはフロントカメラ12aであると判定することができる。また、第2のカメラ2bにより撮影された画像が右の領域のみにおいて他の画像との重なりを持つことから、第2のカメラ2bは左サイドカメラ12bであると判定することができる。また、第3のカメラ2cにより撮影された画像が左の領域のみにおいて他の画像との重なりを持つことから、第3のカメラ2cは右サイドカメラ12cであると判定することができる。また、第4のカメラ2dにより撮影された画像と他の画像との重なりがないことから、第4のカメラ2dはリアカメラ12dであると判定することができる。以上より、取り付け位置が決められていない汎用性のあるカメラ2a〜2dを自車両13に取り付けた場合でも、取り付け位置を自動的に判定することができる。従って、カメラ2a〜2dを取り付ける際に、取り付け位置に応じたカメラを選択したり位置情報の設定作業をしたりする必要がなくなり、カメラ2a〜2dの取り付け作業が容易になる。   As described above in detail, in the present embodiment, images captured by the first camera 2a to the fourth camera 2d are acquired, and feature points of the images are analyzed by the image determination unit 4 to overlap each image. Is judging. In addition, the position detection unit 5 identifies which image was captured by which camera based on the determination result of the image determination unit 4 regarding how the images overlap. Thereby, since the image image | photographed with the 1st camera 2a has an overlap with another image in the area | region on either side, it can determine with the 1st camera 2a being the front camera 12a. In addition, since the image captured by the second camera 2b has an overlap with other images only in the right region, it can be determined that the second camera 2b is the left side camera 12b. In addition, since the image captured by the third camera 2c overlaps with other images only in the left region, it can be determined that the third camera 2c is the right side camera 12c. In addition, since there is no overlap between the image captured by the fourth camera 2d and another image, it can be determined that the fourth camera 2d is the rear camera 12d. As described above, even when the versatile cameras 2a to 2d whose attachment positions are not determined are attached to the host vehicle 13, the attachment positions can be automatically determined. Therefore, when attaching the cameras 2a to 2d, there is no need to select a camera corresponding to the attachment position or to perform position information setting work, and the camera 2a to 2d can be easily attached.

なお、本実施形態では、フロントカメラ12aの撮影範囲14aと左サイドカメラ12bの撮影範囲14bとが重複する領域15aを持ち、フロントカメラ12aの撮影範囲14aと右サイドカメラ12cの撮影範囲14cとが重複する領域15bを持つようにしているが、これに限定されない。例えば、左サイドカメラ12b及び右サイドカメラ12cが自車両13の後方寄りに設置されており、リアカメラ12dの撮影範囲14dと左サイドカメラ12bの撮影範囲とが重複する領域を持ち、リアカメラ12dの撮影範囲14dと右サイドカメラ12cの撮影範囲とが重複する領域を持つようにしても良い。このような場合には、位置検出部5は、他の画像と一致する特徴点を左右の領域に持つ画像をリアカメラ12dにより撮影された画像であると判断する。また、位置検出部5は、左の領域のみにおいて他の画像との重なりを持つ画像を左サイドカメラ12bにより撮影された画像であると判断する。また、位置検出部5は、右の領域のみにおいて他の画像との重なりを持つ画像を右サイドカメラ12cにより撮影された画像であると判断する。また、位置検出部5は、他の画像との重なりがない画像をフロントカメラ12aにより撮影された画像であると判断する。   In the present embodiment, there is an area 15a where the shooting range 14a of the front camera 12a and the shooting range 14b of the left side camera 12b overlap, and the shooting range 14a of the front camera 12a and the shooting range 14c of the right side camera 12c. Although the overlapping area 15b is provided, the present invention is not limited to this. For example, the left side camera 12b and the right side camera 12c are installed near the rear of the host vehicle 13, and the rear camera 12d has an area where the shooting range 14d of the rear camera 12d and the shooting range of the left side camera 12b overlap. The imaging range 14d and the imaging range of the right side camera 12c may have an overlapping area. In such a case, the position detection unit 5 determines that an image having a feature point matching the other image in the left and right regions is an image captured by the rear camera 12d. Further, the position detection unit 5 determines that an image having an overlap with another image in only the left region is an image taken by the left side camera 12b. Further, the position detection unit 5 determines that an image having an overlap with another image only in the right region is an image taken by the right side camera 12c. Further, the position detection unit 5 determines that an image that does not overlap with other images is an image taken by the front camera 12a.

また、本実施形態では、自車両13の周辺を4台のカメラにより撮影しているが、これに限定されない。例えば、自車両13の前方及び側方を撮影する3台のカメラを使用するようにしても良い。また、リアカメラ12dの撮影範囲と左サイドカメラ12bの撮影範囲とが重複する領域を持ち、リアカメラ12dの撮影範囲と右サイドカメラ12cの撮影範囲とが重複する領域を持つようにした場合には、自車両13の後方及び側方を撮影する3台のカメラを使用するようにしても良い。   Moreover, in this embodiment, although the periphery of the own vehicle 13 is image | photographed with four cameras, it is not limited to this. For example, three cameras that photograph the front and side of the host vehicle 13 may be used. Also, when the shooting range of the rear camera 12d and the shooting range of the left side camera 12b have an overlapping area, and the shooting range of the rear camera 12d and the shooting range of the right side camera 12c have an overlapping area. May use three cameras for photographing the back and sides of the host vehicle 13.

また本実施形態では、位置情報を持たない第1のカメラ2a〜第4のカメラ2dは、画像入力部3にバス接続されているが、これに限定されない。例えば、第1のカメラ2a〜第4のカメラ2dが位置情報を持たない4つの画像入力部にそれぞれ1対1に接続されていても良い。   In the present embodiment, the first camera 2a to the fourth camera 2d that do not have position information are bus-connected to the image input unit 3, but the present invention is not limited to this. For example, the first camera 2a to the fourth camera 2d may be connected one to one to four image input units that do not have position information.

その他、前記実施形態は、何れも本発明を実施するにあたっての具体化の一例を示したものに過ぎず、これによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその精神、またはその主要な特徴から逸脱することなく、様々な形で実施することができる。   In addition, each of the above-described embodiments is merely an example of actualization in carrying out the present invention, and the technical scope of the present invention should not be construed in a limited manner. In other words, the present invention can be implemented in various forms without departing from the spirit or main features thereof.

本発明は、自車両の周囲に取り付けられた複数の撮像装置により撮影した自車両の周辺の画像を表示する画像表示装置に有用である。   INDUSTRIAL APPLICABILITY The present invention is useful for an image display device that displays an image of the periphery of the host vehicle captured by a plurality of imaging devices attached around the host vehicle.

本実施形態による撮像装置の位置検出装置を含む画像表示装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the image display apparatus containing the position detection apparatus of the imaging device by this embodiment. 本実施形態の位置検出装置による各カメラの配置の例及び各カメラの撮影範囲の例を示す図である。It is a figure which shows the example of arrangement | positioning of each camera by the position detection apparatus of this embodiment, and the example of the imaging range of each camera. 本実施形態の位置検出装置による各カメラにより撮影された画像の例を示す図である。It is a figure which shows the example of the image image | photographed with each camera by the position detection apparatus of this embodiment. 本実施形態による撮像装置の位置検出装置の動作及位置検出方法を示すフローチャートである。It is a flowchart which shows the operation | movement of the position detection apparatus of the imaging device by this embodiment, and a position detection method. 従来のカメラの接続例を示すブロック図である。It is a block diagram which shows the example of a connection of the conventional camera.

符号の説明Explanation of symbols

1 位置検出装置
2 撮像装置
2a 第1のカメラ
2b 第2のカメラ
2c 第3のカメラ
2d 第4のカメラ
3 画像入力部
4 画像判定部
5 位置検出部
6 位置記憶部
7 画像生成部
12a フロントカメラ
12b 左サイドカメラ
12c 右サイドカメラ
12d リアカメラ
13 自車両
DESCRIPTION OF SYMBOLS 1 Position detection apparatus 2 Imaging device 2a 1st camera 2b 2nd camera 2c 3rd camera 2d 4th camera 3 Image input part 4 Image determination part 5 Position detection part 6 Position memory | storage part 7 Image generation part 12a Front camera 12b Left side camera 12c Right side camera 12d Rear camera 13 Own vehicle

Claims (3)

自車両の周辺の画像を撮影するために第1の方向を撮影して第1の画像を取得する第1の撮像装置、前記第1の方向の左側の第2の方向を撮影して前記第1の画像と一部が重複する第2の画像を取得する第2の撮像装置、及び前記第1の方向の右側の第3の方向を撮影して前記第1の画像と一部が重複する第3の画像を取得する第3の撮像装置の取り付け位置を検出する撮像装置の位置検出装置であって、
前記第1の撮像装置乃至前記第3の撮像装置により撮影された前記第1の画像乃至前記第3の画像を入力し、入力した画像の特徴点を解析して各画像の重なり方を判定する画像判定部と、
前記画像判定部により判定した前記各画像の重なり方に基づいて前記第1の撮像装置乃至前記第3の撮像装置の取り付け位置を特定する位置検出部と、
を備えた撮像装置の位置検出装置。
A first imaging device that captures a first direction and captures a first image in order to capture an image of the surroundings of the host vehicle, a second direction on the left side of the first direction, and the first direction. A second imaging device that acquires a second image that partially overlaps one image and a third direction on the right side of the first direction, and a portion that overlaps the first image A position detection device for an image pickup device for detecting a mounting position of a third image pickup device for acquiring a third image,
The first to third images captured by the first to third imaging devices are input, and feature points of the input images are analyzed to determine how the images overlap. An image determination unit;
A position detection unit that specifies an attachment position of the first imaging device to the third imaging device based on how the images determined by the image determination unit overlap;
An apparatus for detecting a position of an imaging apparatus.
前記第1の撮像装置乃至前記第3の撮像装置に加え、前記第1の方向の反対側の第4の方向を撮影して前記第1の画像乃至前記第3の画像と重複しない第4の画像を取得する第4の撮像装置の取り付け位置を検出する撮像装置の位置検出装置であって、
前記画像判定部は、前記第1の撮像装置乃至前記第4の撮像装置により撮影された前記第1の画像乃至前記第4の画像を入力して、入力した画像の特徴点を解析して各画像の重なり方を判定し、
前記位置特定部は、前記画像判定部により判定した各画像の重なり方に基づいて前記第1の撮像装置乃至前記第4の撮像装置の取り付け位置を特定することを特徴とする請求項1に記載の撮像装置の位置検出装置。
In addition to the first imaging device to the third imaging device, the fourth direction opposite to the first direction is photographed, and a fourth that does not overlap the first image to the third image A position detection device for an image pickup device for detecting a mounting position of a fourth image pickup device for acquiring an image,
The image determination unit inputs the first image to the fourth image captured by the first imaging device to the fourth imaging device, analyzes feature points of the input image, and Determine how the images overlap,
The position identifying unit identifies an attachment position of the first imaging device to the fourth imaging device based on how the images determined by the image determination unit overlap. Position detecting device for the imaging apparatus.
自車両の周辺の画像を撮影するために第1の方向を撮影して第1の画像を取得する第1の撮像装置と、前記第1の方向の左側の第2の方向を撮影して前記第1の画像と一部が重複する第2の画像を取得する第2の撮像装置と、前記第1の方向の右側の第3の方向を撮影して前記第1の画像と一部が重複する第3の画像を取得する第3の撮像装置との取り付け位置を検出する撮像装置の位置検出方法であって、
前記第1の撮像装置乃至前記第3の撮影装置により撮影された前記第1の画像乃至前記第3の画像を画像判定部に入力する第1のステップと、
前記第1のステップにて入力した画像の特徴点を解析して各画像の重なり方を前記画像判定部にて判定する第2のステップと、
前記第2のステップにて判定された前記各画像の重なり方に基づいて前記第1の撮像装置乃至前記第3の撮像装置の取り付け位置を位置検出部により特定する第3のステップと、
を備えた撮像装置の位置検出方法。
A first imaging device that captures a first direction to capture a first image to capture an image of the surroundings of the host vehicle, and a second direction on the left side of the first direction A second imaging device that acquires a second image that partially overlaps the first image, and a third direction on the right side of the first direction, and a portion that overlaps the first image An image pickup apparatus position detection method for detecting an attachment position with a third image pickup apparatus that acquires a third image.
A first step of inputting the first image to the third image captured by the first imaging device to the third imaging device to an image determination unit;
A second step of analyzing the feature points of the images input in the first step and determining how the images overlap in the image determination unit;
A third step of specifying a mounting position of the first imaging device to the third imaging device by a position detection unit based on the overlapping of the images determined in the second step;
The position detection method of the imaging device provided with this.
JP2005194610A 2005-07-04 2005-07-04 Image pickup device position detection device and image pickup device position detection method Expired - Fee Related JP4756938B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005194610A JP4756938B2 (en) 2005-07-04 2005-07-04 Image pickup device position detection device and image pickup device position detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005194610A JP4756938B2 (en) 2005-07-04 2005-07-04 Image pickup device position detection device and image pickup device position detection method

Publications (2)

Publication Number Publication Date
JP2007008401A true JP2007008401A (en) 2007-01-18
JP4756938B2 JP4756938B2 (en) 2011-08-24

Family

ID=37747433

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005194610A Expired - Fee Related JP4756938B2 (en) 2005-07-04 2005-07-04 Image pickup device position detection device and image pickup device position detection method

Country Status (1)

Country Link
JP (1) JP4756938B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150005012A (en) * 2013-07-04 2015-01-14 현대모비스 주식회사 Vehicle Controlling Method and Apparatus therefor
JP2019205113A (en) * 2018-05-25 2019-11-28 クラリオン株式会社 Image generation apparatus and control method thereof
JP2020032821A (en) * 2018-08-28 2020-03-05 本田技研工業株式会社 Vehicular imaging unit arrangement structure

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000272416A (en) * 1999-03-19 2000-10-03 Aisin Aw Co Ltd Drive support device
JP2002051331A (en) * 2000-05-24 2002-02-15 Matsushita Electric Ind Co Ltd Imaging device
JP2005115853A (en) * 2003-10-10 2005-04-28 Denso Corp Vehicular circumference monitoring device
JP2005136561A (en) * 2003-10-29 2005-05-26 Denso Corp Vehicle peripheral picture display device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000272416A (en) * 1999-03-19 2000-10-03 Aisin Aw Co Ltd Drive support device
JP2002051331A (en) * 2000-05-24 2002-02-15 Matsushita Electric Ind Co Ltd Imaging device
JP2005115853A (en) * 2003-10-10 2005-04-28 Denso Corp Vehicular circumference monitoring device
JP2005136561A (en) * 2003-10-29 2005-05-26 Denso Corp Vehicle peripheral picture display device

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150005012A (en) * 2013-07-04 2015-01-14 현대모비스 주식회사 Vehicle Controlling Method and Apparatus therefor
KR102055457B1 (en) 2013-07-04 2019-12-12 현대모비스 주식회사 Vehicle Controlling Method and Apparatus therefor
JP2019205113A (en) * 2018-05-25 2019-11-28 クラリオン株式会社 Image generation apparatus and control method thereof
JP7236223B2 (en) 2018-05-25 2023-03-09 フォルシアクラリオン・エレクトロニクス株式会社 IMAGE GENERATION DEVICE AND CONTROL METHOD OF IMAGE GENERATION DEVICE
JP2020032821A (en) * 2018-08-28 2020-03-05 本田技研工業株式会社 Vehicular imaging unit arrangement structure
CN110861585A (en) * 2018-08-28 2020-03-06 本田技研工业株式会社 Arrangement structure of camera unit for vehicle

Also Published As

Publication number Publication date
JP4756938B2 (en) 2011-08-24

Similar Documents

Publication Publication Date Title
US8184160B2 (en) Image processor, driving assistance system, and out-of-position detecting method
JP5341789B2 (en) Parameter acquisition apparatus, parameter acquisition system, parameter acquisition method, and program
JP4803449B2 (en) On-vehicle camera calibration device, calibration method, and vehicle production method using this calibration method
WO2011043006A1 (en) Control device and vehicle surrounding monitoring device
JP5058002B2 (en) Object detection device
JP2012148710A (en) Image display apparatus
JP2006268076A (en) Driving assistance system
US20170028917A1 (en) Driving assistance device and driving assistance method
JP2014093071A (en) Apparatus and method for tracking position of surrounding vehicle
US11708032B2 (en) Driving support device
JP2009093332A (en) Vehicle peripheral image processor and vehicle peripheral circumstance presentation method
JP2005012465A (en) Peripheral displaying device for vehicle
JP4756938B2 (en) Image pickup device position detection device and image pickup device position detection method
JP2006352368A (en) Vehicle surrounding monitoring apparatus and vehicle surrounding monitoring method
WO2015122124A1 (en) Vehicle periphery image display apparatus and vehicle periphery image display method
JP2012022646A (en) Visual line direction detector, visual line direction detection method and safe driving evaluation system
JP2019188855A (en) Visual confirmation device for vehicle
JP5155204B2 (en) White line detector
JP2007087203A (en) Collision determination system, collision determination method, and computer program
JP2008225908A (en) Driving support apparatus and guide image display method
CN112272946B (en) Vehicle control device
JP2011191859A (en) Apparatus for monitoring surroundings of vehicle
JP4176558B2 (en) Vehicle periphery display device
JP2005339152A (en) Moving body detector
WO2018097356A1 (en) Vehicle parking assist device and method therefor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080218

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101022

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110315

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110510

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110531

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110531

R150 Certificate of patent or registration of utility model

Ref document number: 4756938

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140610

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees