JP2006178652A - Vehicle environment recognition system and image processor - Google Patents

Vehicle environment recognition system and image processor Download PDF

Info

Publication number
JP2006178652A
JP2006178652A JP2004369755A JP2004369755A JP2006178652A JP 2006178652 A JP2006178652 A JP 2006178652A JP 2004369755 A JP2004369755 A JP 2004369755A JP 2004369755 A JP2004369755 A JP 2004369755A JP 2006178652 A JP2006178652 A JP 2006178652A
Authority
JP
Japan
Prior art keywords
vehicle
image
partial image
captured image
partial
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004369755A
Other languages
Japanese (ja)
Inventor
Hiroaki Saito
裕昭 齋藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sumitomo Electric Industries Ltd
Original Assignee
Sumitomo Electric Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sumitomo Electric Industries Ltd filed Critical Sumitomo Electric Industries Ltd
Priority to JP2004369755A priority Critical patent/JP2006178652A/en
Publication of JP2006178652A publication Critical patent/JP2006178652A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a vehicle environment recognition system capable of recognizing a vehicle environment by specifying an image region in a necessary range according to the driving condition of a vehicle, and an image processor that constitutes the vehicle environment recognition system. <P>SOLUTION: An image processing part 26 reads from an image memory 23 an image picked up in one frame unit, and reads vehicle velocity v, steering angle α, and inclination angle β from a storage part 24 in synchronism with frame rates. Based on the vehicle velocity v, the steering angle α, and the inclination angle β read, the image processing part 26 refers to an LUT 261 to obtain a parameter for specifying a partial image. The partial image specified is temporarily stored in a frame memory 262. A walker recognition processing part 263 reads the partial image stored in the frame memory 262 and determines the similarities between the partial image read and standard patterns H1, H2 and so forth that are read from a standard pattern part 241. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、画角が広角又は標準のレンズ部を有する撮像装置で撮像して得られた撮像画像から、車両の走行状態に応じて、必要な範囲の画像領域を特定し、該画像領域を画像処理装置で処理して車両周辺を認識する車両周辺認識システム及び該車両周辺認識システムを構成する画像処理装置に関する。   The present invention specifies an image area in a necessary range from a captured image obtained by imaging with an imaging device having a wide-angle or standard lens unit according to the running state of the vehicle, and The present invention relates to a vehicle periphery recognition system that recognizes a vehicle periphery by processing with an image processing device, and an image processing device that constitutes the vehicle periphery recognition system.

車両(例えば、自動車)の前部にビデオカメラを搭載し、車両前方の歩行者などを撮像し、撮像した映像をヘッドアップディスプレイなどの表示装置で表示して、運転者に注意を促す前方監視システムが提案されている。   A video camera is installed in the front of a vehicle (for example, an automobile) to capture pedestrians in front of the vehicle, and the captured images are displayed on a display device such as a head-up display to prompt the driver to pay attention. A system has been proposed.

このようなシステムで使用されるビデオカメラは、車両が高速で走行した場合であっても、車両前方の遠方(例えば、30〜150m)の歩行者をディスプレイ上で所要の大きさで認識できるように、視野角が10〜15°程度の狭角レンズ(望遠レンズ)を備えている。しかし、狭角レンズを用いたビデオカメラでは、車両がカーブなどを曲がる場合に、車両の曲がる方向に存在する歩行者を十分に認識できないときがあるため、車両の操舵角に応じて、ビデオカメラを左右に駆動するシステムがある(特許文献1参照)。   The video camera used in such a system can recognize a pedestrian far in front of the vehicle (for example, 30 to 150 m) with a required size on the display even when the vehicle travels at a high speed. And a narrow-angle lens (telephoto lens) having a viewing angle of about 10 to 15 °. However, in a video camera using a narrow-angle lens, when a vehicle turns a curve or the like, a pedestrian that exists in the vehicle's turning direction may not be fully recognized. There is a system that drives left and right (see Patent Document 1).

また、狭角レンズを用いたビデオカメラでは、車両が低速で走行した場合には、車両の前方左右方向の視野が十分に確保できず、車両周辺の歩行者を十分に認識できない場合があるため、ズームレンズ及びズーム機構を有するビデオカメラを車両のフロントグリル周辺に配置し、車両の速度に応じて、ズームレンズを駆動して画角を変更するシステムも提案されている(特許文献2参照)。
特開2002−312898号公報 特開平7−105481号公報
Also, with a video camera using a narrow-angle lens, when the vehicle travels at a low speed, the field of view in the left-right direction of the vehicle cannot be sufficiently secured, and pedestrians around the vehicle may not be sufficiently recognized. A system has also been proposed in which a video camera having a zoom lens and a zoom mechanism is arranged around the front grille of a vehicle and the angle of view is changed by driving the zoom lens according to the speed of the vehicle (see Patent Document 2). .
JP 2002-31898 A JP-A-7-105481

しかしながら、特許文献1のシステムにあっては、狭角レンズは大口径となるため、ビデオカメラの形状は大きくならざるを得ない。このため、ビデオカメラを操舵角に応じて左右に駆動するための駆動装置は大型化し、フロントグリルなどの車両前部の限られた収納箇所にビデオカメラと駆動装置とを取り付けることが困難な場合があり、また、車両のデザインにも悪影響を及ぼす場合があった。   However, in the system of Patent Document 1, since the narrow-angle lens has a large aperture, the shape of the video camera must be large. For this reason, the drive device for driving the video camera to the left and right according to the steering angle is enlarged, and it is difficult to attach the video camera and the drive device to a limited storage location in the front part of the vehicle such as the front grille. In some cases, the vehicle design could be adversely affected.

また、特許文献2のシステムにあっては、ステッピングモータによりズームレンズを駆動させるための可動部分を有する。このような可動部分は、車両走行時に加わる振動、外気の温度変化、外気からの粉塵、雨などの車両特有の外的要因に対しては、車両の信頼性を損なう原因になり得る場合があった。このため、ズーム機構を車両に用いることは敬遠される傾向にあり、車両用画像認識装置の信頼性を向上するためにズーム機構に代わる機構が望まれていた。   Further, the system of Patent Document 2 has a movable part for driving a zoom lens by a stepping motor. Such moving parts may cause a decrease in the reliability of the vehicle against external factors peculiar to the vehicle, such as vibration applied during vehicle travel, temperature change of the outside air, dust from the outside air, and rain. It was. For this reason, the use of the zoom mechanism in a vehicle tends to be avoided, and a mechanism that replaces the zoom mechanism has been desired in order to improve the reliability of the vehicular image recognition apparatus.

さらに、ビデオカメラのレンズの光軸は、車両前方の所定方向に固定してあるため、車両が悪路を走行した場合に、車両が前後に傾斜したときは、レンズの光軸も上下に変動するため、車両前方の歩行者などを認識できない虞があった。   Furthermore, since the optical axis of the video camera lens is fixed in a predetermined direction in front of the vehicle, when the vehicle is traveling on a rough road, the optical axis of the lens also fluctuates up and down when the vehicle tilts back and forth. Therefore, there is a possibility that a pedestrian in front of the vehicle cannot be recognized.

本発明は、斯かる事情に鑑みてなされたものであり、車両の走行状態に基づいて、撮像して得られた撮像画像の一部を部分画像として特定する特定手段を備え、該特定手段が特定した部分画像に基づいて車両周辺を認識するようにしてあることにより、ビデオカメラを駆動する駆動装置、又はズーム機構を用いることなく、車両の走行状態に応じて車両周辺を認識することができる車両周辺認識システム及び該車両周辺認識システムを構成する画像処理装置を提供することを目的とする。   The present invention has been made in view of such circumstances, and includes a specifying unit that specifies, as a partial image, a part of a captured image obtained by imaging based on the running state of the vehicle, By recognizing the periphery of the vehicle based on the specified partial image, it is possible to recognize the periphery of the vehicle according to the traveling state of the vehicle without using a drive device that drives the video camera or a zoom mechanism. It is an object of the present invention to provide a vehicle periphery recognition system and an image processing apparatus constituting the vehicle periphery recognition system.

また、本発明の他の目的は、車両の速度に応じて、撮像画像における部分画像の大きさを変更するようにしてあることにより、車両の速度が変化した場合であっても、車両周辺を認識することができる車両周辺認識システムを提供することにある。   Another object of the present invention is to change the size of the partial image in the captured image according to the speed of the vehicle, so that the vehicle periphery can be changed even when the speed of the vehicle changes. The object is to provide a vehicle periphery recognition system capable of recognizing.

また、本発明の他の目的は、操舵角に応じて、撮像画像における部分画像の位置を左右に変更するようにしてあることにより、車両がカーブを曲がる場合であっても、車両周辺を認識することができる車両周辺認識システムを提供することにある。   Another object of the present invention is to change the position of the partial image in the captured image to the left and right according to the steering angle, so that the vehicle periphery can be recognized even when the vehicle is turning a curve. An object of the present invention is to provide a vehicle periphery recognition system.

また、本発明の他の目的は、車両の前後の傾斜角に応じて、撮像画像における部分画像の位置を上下に変更するようにしてあることにより、車両が悪路を走行した場合であっても、車両周辺を認識することができる車両周辺認識システムを提供することにある。   Another object of the present invention is when the vehicle travels on a rough road by changing the position of the partial image in the captured image up and down according to the front and rear inclination angles of the vehicle. Another object of the present invention is to provide a vehicle periphery recognition system capable of recognizing the vehicle periphery.

第1発明に係る車両周辺認識システムは、車両の周辺を撮像装置で撮像し、撮像して得られた撮像画像を画像処理装置で処理して車両周辺を認識する車両周辺認識システムにおいて、前記撮像装置は、画角が広角又は標準のレンズ部を有し、前記画像処理装置は、車両の走行状態に関連する情報を取得する取得手段と、該取得手段が取得した情報に基づいて、前記撮像画像の一部を部分画像として特定する特定手段とを備え、該特定手段が特定した部分画像に基づいて、車両周辺を認識するようにしてあることを特徴とする。   A vehicle periphery recognition system according to a first aspect of the present invention is the vehicle periphery recognition system in which the periphery of the vehicle is imaged by an imaging device, and the captured image obtained by imaging is processed by the image processing device to recognize the vehicle periphery. The apparatus includes a lens unit having a wide angle or a standard angle of view, and the image processing apparatus acquires the information related to the traveling state of the vehicle, the imaging unit based on the information acquired by the acquisition unit A specifying unit that specifies a part of the image as a partial image, and the vehicle periphery is recognized based on the partial image specified by the specifying unit.

第2発明に係る車両周辺認識システムは、第1発明において、前記取得手段は、車両速度を取得するようにしてあり、前記特定手段は、前記部分画像の大きさを変更する変更手段を有し、該変更手段は、取得した車両速度に高低に応じて、前記撮像画像における部分画像の大小を変更するようにしてあることを特徴とする。   In the vehicle periphery recognition system according to a second aspect of the present invention, in the first aspect, the acquisition unit acquires a vehicle speed, and the specifying unit includes a changing unit that changes the size of the partial image. The changing means is characterized in that the size of the partial image in the captured image is changed according to the level of the acquired vehicle speed.

第3発明に係る車両周辺認識システムは、第1発明において、前記取得手段は、操舵角を取得するようにしてあり、前記特定手段は、前記撮像画像における部分画像の位置を変更する変更手段を有し、該変更手段は、取得した操舵角の大小に応じて、前記撮像画像における部分画像の位置を左右に変更するようにしてあることを特徴とする。   In the vehicle periphery recognition system according to a third aspect, in the first aspect, the acquisition unit acquires a steering angle, and the specifying unit includes a changing unit that changes a position of the partial image in the captured image. And the changing means is configured to change the position of the partial image in the captured image to the left or right according to the magnitude of the acquired steering angle.

第4発明に係る車両周辺認識システムは、第1発明において、前記取得手段は、車両の前後の傾斜角を取得するようにしてあり、前記特定手段は、前記撮像画像における部分画像の位置を変更する変更手段を有し、該変更手段は、取得した傾斜角の大小に応じて、前記撮像画像における部分画像の位置を上下に変更するようにしてあることを特徴とする。   In the vehicle periphery recognition system according to a fourth aspect of the present invention, in the first aspect, the acquisition unit acquires a front and rear inclination angle of the vehicle, and the specifying unit changes a position of the partial image in the captured image. The changing unit is configured to change the position of the partial image in the captured image up and down according to the acquired inclination angle.

第5発明に係る画像処理装置は、取り込んだ撮像画像を処理して車両周辺を認識する画像処理装置において、車両の走行状態に関連する情報を取得する取得手段と、該取得手段が取得した情報に基づいて、前記撮像画像の一部を部分画像として特定する特定手段とを備え、該特定手段が特定した部分画像に基づいて、車両周辺を認識するようにしてあることを特徴とする。   An image processing apparatus according to a fifth aspect of the present invention is an image processing apparatus that processes captured images and recognizes the periphery of the vehicle, an acquisition unit that acquires information related to the running state of the vehicle, and information acquired by the acquisition unit And a specifying means for specifying a part of the captured image as a partial image, and the vehicle periphery is recognized based on the partial image specified by the specifying means.

第1発明及び第5発明にあっては、画角が広角又は標準のレンズ部を有する撮像装置で車両の周辺を撮像する。画像処理装置の取得手段は、車両の走行状態に関連する情報を取得する。特定手段は、前記取得手段が取得した情報に基づいて、前記撮像装置で撮像して得られた撮像画像の一部を部分画像として特定する。これにより、前記画像処理装置は、車両の走行状態に応じて、所要の撮像領域を有する部分画像を処理して車両周辺を認識する。   In the first invention and the fifth invention, the periphery of the vehicle is imaged by an imaging device having a wide angle or standard lens portion. The acquisition unit of the image processing apparatus acquires information related to the running state of the vehicle. The specifying unit specifies, as a partial image, a part of the captured image obtained by imaging with the imaging device based on the information acquired by the acquiring unit. Accordingly, the image processing apparatus recognizes the periphery of the vehicle by processing a partial image having a required imaging region in accordance with the traveling state of the vehicle.

第2発明にあっては、前記取得手段は、車両速度を取得する。変更手段は、車両速度の高低に応じて、前記撮像画像における部分画像の大小を変更する。例えば、車両速度が高速になるに応じて、部分画像を小さくし、前記レンズ部の見掛け上の画角を小さくする。また、車両速度が低速になるに応じて、部分画像を大きくし、前記レンズ部の見掛け上の画角を大きくする。   In the second invention, the acquisition means acquires the vehicle speed. The changing means changes the size of the partial image in the captured image according to the level of the vehicle speed. For example, as the vehicle speed increases, the partial image is reduced and the apparent angle of view of the lens unit is reduced. Further, as the vehicle speed becomes lower, the partial image is enlarged and the apparent angle of view of the lens unit is increased.

第3発明にあっては、前記取得手段は、操舵角を取得する。変更手段は、操舵角の大小に応じて、前記撮像画像における部分画像の位置を左右に変更する。例えば、車両が右カーブを曲がる場合には、前記撮像画像における部分画像の位置を右方向へ変える。また、車両が左カーブを曲がる場合には、前記撮像画像における部分画像の位置を左方向へ変える。   In the third invention, the acquisition means acquires a steering angle. The changing unit changes the position of the partial image in the captured image to the left and right according to the magnitude of the steering angle. For example, when the vehicle turns a right curve, the position of the partial image in the captured image is changed to the right. When the vehicle turns a left curve, the position of the partial image in the captured image is changed to the left.

第4発明にあっては、前記取得手段は、車両の前後の傾斜角を取得する。変更手段は、傾斜角の大小に応じて、前記撮像画像における部分画像の位置を上下に変更する。例えば、車両が前方上方向に傾斜した場合には、前記撮像画像における部分画像の位置を下方向へ変える。また、車両が前方下方向に傾斜した場合には、前記撮像画像における部分画像の位置を上方向へ変える。   In the fourth invention, the acquisition means acquires the front and rear inclination angles of the vehicle. The changing unit changes the position of the partial image in the captured image up and down according to the inclination angle. For example, when the vehicle is tilted forward and upward, the position of the partial image in the captured image is changed downward. Further, when the vehicle is inclined forward and downward, the position of the partial image in the captured image is changed upward.

第1発明及び第5発明にあっては、車両の走行状態に応じて、撮像装置で撮像して得られた撮像画像の一部を部分画像として特定し、前記部分画像を用いて車両周辺を認識するようにしてあることにより、ビデオカメラ駆動装置、又はズーム機構を用いることなく、車両の走行状態に応じて、所要の撮像領域における歩行者、障害物などを認識することができる。また、撮像画像の一部の範囲を処理するため、すべての撮像画像を処理する場合に比べて処理時間の短縮、処理能力の低減を図ることができる。   In the first invention and the fifth invention, a part of the captured image obtained by imaging with the imaging device is specified as a partial image according to the traveling state of the vehicle, and the periphery of the vehicle is identified using the partial image. By recognizing, it is possible to recognize a pedestrian, an obstacle, and the like in a required imaging region according to the running state of the vehicle without using a video camera driving device or a zoom mechanism. Further, since a part of the captured image is processed, the processing time can be shortened and the processing capability can be reduced as compared with the case where all the captured images are processed.

第2発明にあっては、車両の速度の高低に応じて部分画像の大小を変更することにより、例えば、車両が高速走行時の場合には、部分画像を小さくし、見掛け上の画角を小さくして、車両の前方遠距離の視認性を高めることができる。また、車両が低速走行時の場合には、部分画像を大きくし、見掛け上の画角を大きくして、車両の前方左右周辺の視認性を高めることができる。   In the second invention, by changing the size of the partial image according to the speed of the vehicle, for example, when the vehicle is traveling at a high speed, the partial image is reduced and the apparent angle of view is reduced. It can be made small and the visibility of the long distance ahead of the vehicle can be enhanced. In addition, when the vehicle is traveling at a low speed, the partial image can be enlarged and the apparent angle of view can be increased to improve the visibility of the front left and right periphery of the vehicle.

第3発明にあっては、操舵角に応じて、撮像画像における部分画像の位置を左右に変更することにより、例えば、車両が右カーブを曲がる場合には、部分画像の位置を右方向に変更して、車両の曲がる方向の視認性を高めることができる。また、車両が左カーブを曲がる場合には、部分画像の位置を左方向に変更して、車両の曲がる方向の視認性を高めることができる。   In the third aspect of the invention, by changing the position of the partial image in the captured image to the left or right according to the steering angle, for example, when the vehicle turns a right curve, the position of the partial image is changed to the right. Thus, the visibility of the vehicle turning direction can be improved. In addition, when the vehicle turns a left curve, the position of the partial image can be changed to the left to improve the visibility of the vehicle turning direction.

第4発明にあっては、車両の前後の傾斜角に応じて、撮像画像における部分画像の位置を上下に変更することにより、例えば、車両が悪路を走行して、車両前方上方向に傾斜した場合には、部分画像の位置を下方向に変更して、車両前方の視認性を高めることができる。また、車両が車両前方下方向に傾斜した場合には、部分画像の位置を上方向に変更して、車両前方の視認性を高めることができる。   In the fourth aspect of the invention, the position of the partial image in the captured image is changed up and down according to the front and rear inclination angles of the vehicle, for example, the vehicle travels on a rough road and is inclined upward in the front direction of the vehicle. In that case, the position of the partial image can be changed downward to improve the visibility in front of the vehicle. Further, when the vehicle is tilted downward in the front direction of the vehicle, the position of the partial image can be changed in the upward direction to improve the visibility in front of the vehicle.

以下、本発明を実施の形態を示す図面に基づいて説明する。図1は本発明に係る車両周辺認識システムの概要を示す模式図である。図において、1は車両に搭載され、歩行者などを撮像するビデオカメラである。ビデオカメラ1は、フロントグリルに設置され、IEEE1394に準拠した車載LAN用の通信線7を介して画像処理装置2に接続してある。   Hereinafter, the present invention will be described with reference to the drawings illustrating embodiments. FIG. 1 is a schematic diagram showing an outline of a vehicle periphery recognition system according to the present invention. In the figure, reference numeral 1 denotes a video camera that is mounted on a vehicle and images a pedestrian or the like. The video camera 1 is installed on the front grille and is connected to the image processing apparatus 2 via a communication line 7 for in-vehicle LAN conforming to IEEE1394.

画像処理装置2には、通信線7を介して操作部及び警報部を有する表示装置3、操舵輪の操舵角を検出する操舵角センサ4、車体の下面であって、車両の前部及び後部夫々に取り付けられ、地面(路面)との距離を検出する距離センサ5a、5b、車両の速度を検出する速度センサ6を接続してある。車両の傾きを示す傾斜角は、距離センサ5a、5bが検出した地面からの距離の差と、距離センサ5a、5bの離隔寸法により算出される。   The image processing apparatus 2 includes a display device 3 having an operation unit and an alarm unit via a communication line 7, a steering angle sensor 4 for detecting a steering angle of a steering wheel, a lower surface of a vehicle body, and a front part and a rear part of the vehicle Distance sensors 5a and 5b that detect the distance from the ground (road surface) and a speed sensor 6 that detects the speed of the vehicle are connected to each other. The inclination angle indicating the inclination of the vehicle is calculated from the difference in distance from the ground detected by the distance sensors 5a and 5b and the distance between the distance sensors 5a and 5b.

図2は、ビデオカメラ1の構成を示すブロック図である。11は撮像部である。撮像部11は、画角が標準(例えば、30°〜50°)のガラス製のレンズ111、112と、レンズ111、112の光軸が撮像面の中心に位置するように配置したCCDなどの撮像素子113とを有する。撮像素子113で撮像される撮像画像のサイズは、例えば、1280x960画素を有する。レンズ111、112を透過した光は、撮像素子113に入力される。撮像素子113は、入力された光をRGB(R:赤、G:緑、B:青)のアナログ信号に変換し、信号処理部12へ出力する。   FIG. 2 is a block diagram showing the configuration of the video camera 1. Reference numeral 11 denotes an imaging unit. The imaging unit 11 includes glass lenses 111 and 112 having a standard angle of view (for example, 30 ° to 50 °), and a CCD or the like arranged so that the optical axes of the lenses 111 and 112 are positioned at the center of the imaging surface. An image sensor 113. The size of the captured image captured by the image sensor 113 has, for example, 1280 × 960 pixels. The light transmitted through the lenses 111 and 112 is input to the image sensor 113. The image sensor 113 converts the input light into RGB (R: red, G: green, B: blue) analog signals and outputs them to the signal processing unit 12.

信号処理部12は、撮像素子113から入力されたアナログ信号をデジタル信号に変換し、光学系で生じた各種の歪みを取り除くための処理、低周波ノイズの除去処理、ガンマ特性を補正する補正処理などを行う。さらに、RGB信号をYUV(Y:輝度、U、V:色差)信号に変換し、変換したYUV信号を画素毎に有する撮像画像を一旦画像メモリ14へ記憶する。   The signal processing unit 12 converts an analog signal input from the image sensor 113 into a digital signal, a process for removing various distortions generated in the optical system, a low-frequency noise removal process, and a correction process for correcting gamma characteristics. And so on. Further, the RGB signal is converted into a YUV (Y: luminance, U, V: color difference) signal, and a captured image having the converted YUV signal for each pixel is temporarily stored in the image memory 14.

インタフェース部13は、画像処理装置2から送信される指令に従って、画像メモリ14に記憶された撮像画像を画像処理装置2へ出力するための制御、ビデオカメラ1で撮像した画像の解像度による転送レートの変換、撮像画像が有する画像データからパケットデータの作成などを行う。また、インタフェース部13は、制御部15の制御に従って、画像メモリ14に記憶された撮像画像を画像処理装置2へ出力する。   The interface unit 13 performs control for outputting a captured image stored in the image memory 14 to the image processing device 2 according to a command transmitted from the image processing device 2, and a transfer rate according to the resolution of the image captured by the video camera 1. Conversion, creation of packet data from image data of the captured image, and the like are performed. Further, the interface unit 13 outputs the captured image stored in the image memory 14 to the image processing device 2 under the control of the control unit 15.

制御部15は、バス16を介して、撮像部11、信号処理部12、インタフェース部13の処理を制御する。例えば、画像処理装置2からの指令を解釈して、撮像部11が撮像した撮像画像を画像メモリ14に記憶する。また、記憶された撮像画像を読み出し、インタフェース部13を介して画像処理装置2へ出力する。   The control unit 15 controls processing of the imaging unit 11, the signal processing unit 12, and the interface unit 13 via the bus 16. For example, a command from the image processing device 2 is interpreted, and a captured image captured by the imaging unit 11 is stored in the image memory 14. Further, the stored captured image is read and output to the image processing apparatus 2 via the interface unit 13.

図3は、画像処理装置2の構成を示すブロック図である。図において、21はインタフェース部であり、ビデオカメラ1に対する指令の転送、ビデオカメラ1からの撮像画像が有する画像データの転送を行う。   FIG. 3 is a block diagram illustrating a configuration of the image processing apparatus 2. In the figure, reference numeral 21 denotes an interface unit that transfers instructions to the video camera 1 and transfers image data of a captured image from the video camera 1.

入力部22は、操舵角センサ4で検出された操舵角α、速度センサ6で検出された車速vなどのデータを受信し、受信したデータを後述する記憶部24に記憶する。また、入力部22は、距離センサ5a、5bで検出された距離データを受信し、受信した距離データに基づいて車両の傾きを示す傾斜角βを算出し、算出した傾斜角βを記憶部24に記憶する。   The input unit 22 receives data such as the steering angle α detected by the steering angle sensor 4 and the vehicle speed v detected by the speed sensor 6, and stores the received data in the storage unit 24 described later. The input unit 22 receives distance data detected by the distance sensors 5a and 5b, calculates an inclination angle β indicating the inclination of the vehicle based on the received distance data, and stores the calculated inclination angle β. To remember.

記憶部24は、歩行者を認識するための標準パターンH1、H2、…を記憶する標準パターン部241と、入力部22を介して入力された車速v、操舵角α、車両の傾斜角βを記憶する車両情報部242とを有する。標準パターンH1、H2、…は人間の輝度分布に対応した輝度分布を有し、人間の体形、子供と大人の区別、服装、姿勢などに応じて複数のパターンを有する。   The storage unit 24 stores a standard pattern unit 241 for storing standard patterns H1, H2,... For recognizing pedestrians, a vehicle speed v, a steering angle α, and a vehicle inclination angle β input via the input unit 22. And a vehicle information unit 242 for storing. The standard patterns H1, H2,... Have a luminance distribution corresponding to the human luminance distribution, and have a plurality of patterns according to the human body shape, the distinction between children and adults, clothes, postures, and the like.

制御部27は、インタフェース部21を介してビデオカメラ1から入力された撮像画像を、ビデオカメラ1のフレームレートと同期して、1フレーム単位で画像メモリ23に記憶する。また、制御部27は、画像メモリ23に記憶された撮像画像をフレーム単位で画像処理部26へ出力する。また、制御部27は、タイマ(図示せず)を内蔵し、ビデオカメラ1のフレームレートと同期して記憶部24に記憶された車両の車速v、操舵角α、傾斜角βを読み出し、後述する画像処理部26へ出力する。   The control unit 27 stores the captured image input from the video camera 1 via the interface unit 21 in the image memory 23 in units of one frame in synchronization with the frame rate of the video camera 1. Further, the control unit 27 outputs the captured image stored in the image memory 23 to the image processing unit 26 in units of frames. The control unit 27 has a built-in timer (not shown), and reads the vehicle speed v, the steering angle α, and the inclination angle β stored in the storage unit 24 in synchronization with the frame rate of the video camera 1. To the image processing unit 26.

画像処理部26は、車両の走行状態に関連する情報(車速v、操舵角α、傾斜角β)に対応して、後述する部分画像を特定するためのパラメータを記憶するLUT(Look Up Table)261と、画像メモリ23から1フレーム単位で読み出した撮像画像の一部の範囲を特定した部分画像を記憶するフレームメモリ262と、フレームメモリ262に記憶された部分画像に基づいて歩行者の認識処理を行う歩行者認識処理部263とを有する。   The image processing unit 26 corresponds to information related to the running state of the vehicle (vehicle speed v, steering angle α, inclination angle β), and stores an LUT (Look Up Table) that stores parameters for specifying a partial image to be described later. 261, a frame memory 262 for storing a partial image in which a part of a captured image read from the image memory 23 in units of one frame is specified, and a pedestrian recognition process based on the partial image stored in the frame memory 262 A pedestrian recognition processing unit 263.

画像処理部26は、画像メモリ23から1フレーム単位の撮像画像を読み出し、フレームレートと同期して、記憶部24から車速v、操舵角α、傾斜角βを読み出す。画像処理部26は、読み出した車速v、操舵角α、傾斜角βに基づいて、LUT261を参照して、部分画像を特定するためのパラメータを取得し、特定した部分画像をフレームメモリ262へ一旦記憶する。   The image processing unit 26 reads a captured image in units of one frame from the image memory 23, and reads the vehicle speed v, the steering angle α, and the inclination angle β from the storage unit 24 in synchronization with the frame rate. The image processing unit 26 refers to the LUT 261 based on the read vehicle speed v, steering angle α, and inclination angle β, acquires parameters for specifying the partial image, and temporarily stores the specified partial image in the frame memory 262. Remember.

歩行者認識処理部263は、フレームメモリ262に記憶された部分画像を読み出し、読み出した部分画像と、標準パターン部241から読み出した標準パターンH1、H2、…との類似度を判定する。すなわち、歩行者認識処理部263は、部分画像と標準パターンH1、H2、…との所定の相関値を算出し、算出した相関値が、予め歩行者認識処理部263に記憶してある閾値THより大きい場合には、歩行者が存在するとして、認識された歩行者を強調表示すべく、歩行者を囲む矩形状の枠を付ける処理をして、処理後の画像データを出力部25へ出力する。   The pedestrian recognition processing unit 263 reads the partial image stored in the frame memory 262, and determines the degree of similarity between the read partial image and the standard patterns H1, H2,... Read from the standard pattern unit 241. That is, the pedestrian recognition processing unit 263 calculates a predetermined correlation value between the partial image and the standard patterns H1, H2,..., And the calculated correlation value is stored in the pedestrian recognition processing unit 263 in advance as the threshold value TH. In the case where it is larger, it is assumed that there is a pedestrian, and processing for attaching a rectangular frame surrounding the pedestrian is performed to highlight the recognized pedestrian, and the processed image data is output to the output unit 25 To do.

画像処理部26は、上述の処理を1フレーム単位で行い、1フレーム分の撮像画像に対して処理が終了すると、次のフレームに対して同様の処理を続け、処理後の画像データを出力部25へ出力する。   The image processing unit 26 performs the above-described processing in units of one frame, and when the processing for the captured image for one frame is completed, the image processing unit 26 continues the same processing for the next frame and outputs the processed image data to the output unit. To 25.

出力部25は、入力された画像データを表示装置3へ出力する。   The output unit 25 outputs the input image data to the display device 3.

表示装置3は、画像処理装置2から出力された画像データに基づき、外界の状況とともに、認識した歩行者の存在をディスプレイに表示する。また、歩行者が認識された場合には、歩行者の位置、距離などに応じて警告音を発する。   Based on the image data output from the image processing device 2, the display device 3 displays the presence of the recognized pedestrian on the display along with the external environment. When a pedestrian is recognized, a warning sound is emitted according to the position, distance, etc. of the pedestrian.

図4はLUT261の構成を示すレコードレイアウトである。LUT261は、車速v、操舵角α、車両の傾斜角β夫々に応じて、ビデオカメラ1で撮像した撮像画像の一部の範囲を示す部分画像の大きさ、位置を定めたものである。図に示すように、LUT261は、車速v、撮像画像における部分画像の始点画素(左上の画素)のx、y座標(撮像画像の左上の画素を原点としてx方向、y方向の画素数に相当)、部分画像の横方向の画素数、縦方向の画素数の各パラメータから構成してあり、操舵角α、及び傾斜角βについても同様である。なお、車両を左方向に操舵した場合の操舵角を正、右方向に操舵した場合の操舵角を負とし、車両が前方上方向に傾斜した場合の傾斜角を正、前方下方向に傾斜した場合の傾斜角を負としてある。   FIG. 4 is a record layout showing the configuration of the LUT 261. The LUT 261 determines the size and position of a partial image indicating a partial range of a captured image captured by the video camera 1 according to the vehicle speed v, the steering angle α, and the vehicle inclination angle β. As shown in the figure, the LUT 261 corresponds to the vehicle speed v, the x and y coordinates of the start point pixel (upper left pixel) of the partial image in the captured image (the number of pixels in the x and y directions with the upper left pixel of the captured image as the origin). ), The number of pixels in the horizontal direction of the partial image, and the number of pixels in the vertical direction, and the same applies to the steering angle α and the inclination angle β. The steering angle when the vehicle is steered to the left is positive, the steering angle when the vehicle is steered to the right is negative, the tilt angle when the vehicle is tilted forward and upward is positive, and the tilt angle is tilted downward and forward The tilt angle is negative.

例えば、車速がv1の場合は、始点画素のx、y座標は、夫々x1、y1であり、部分画像の横方向及び縦方向の画素数は、夫々a1、b1である。また、車速がv2(v2>v1)の場合は、始点画素のx、y座標は、夫々x2(x2>x1)、y2(y2>y1)であり、部分画像の横方向及び縦方向の画素数は、夫々a2(a2<a1)、b2(b2<b1)である。これにより、車速vが大きくなるに応じて、部分画像は小さくなるようにしてある。   For example, when the vehicle speed is v1, the x and y coordinates of the start point pixel are x1 and y1, respectively, and the number of pixels in the horizontal and vertical directions of the partial image is a1 and b1, respectively. When the vehicle speed is v2 (v2> v1), the x and y coordinates of the start pixel are x2 (x2> x1) and y2 (y2> y1), respectively, and the horizontal and vertical pixels of the partial image The numbers are a2 (a2 <a1) and b2 (b2 <b1), respectively. As a result, the partial image becomes smaller as the vehicle speed v increases.

ビデオカメラ1の画角を40°x30°(横x縦)、撮像画像のサイズ(1280x960画素数)に対する部分画像のサイズは、例えば、車速が30km/hでは、940x705画素数、車速が50km/hでは、750x562画素数、車速が80km/hでは、460x345画素数のように設定することができる。これにより、ビデオカメラ1の見掛け上の画角が、夫々30°x23°(横x縦)、24°x18°、15°x11°となり、低速走行時には、車両前方の左右の広い範囲を認識することができるとともに、高速走行時には、車両前方の遠方に存在する歩行者などを十分な大きさで撮像することができる。   The size of the partial image with respect to the angle of view of the video camera 1 is 40 ° x 30 ° (horizontal x vertical) and the size of the captured image (1280 x 960 pixels) is, for example, 940 x 705 pixels and vehicle speed 50 km / h can be set to 750 × 562 pixels, and the vehicle speed can be set to 460 × 345 pixels when the vehicle speed is 80 km / h. As a result, the apparent angle of view of the video camera 1 is 30 ° x 23 ° (horizontal x vertical), 24 ° x 18 °, and 15 ° x 11 °, respectively. In addition, when traveling at high speed, it is possible to capture a pedestrian or the like existing far in front of the vehicle with a sufficient size.

また、操舵角がα1の場合は、始点画素のx、y座標は、夫々x31、y3であり、部分画像の横方向及び縦方向の画素数は、夫々a3、b3である。また、操舵角が0の場合は、始点画素のx、y座標は、夫々x32(x32>x31)、y3であり、部分画像の横方向及び縦方向の画素数は、夫々a3、b3である。また、操舵角が−α1の場合は、始点画素のx、y座標は、夫々x33(x33>x32)、y3であり、部分画像の横方向及び縦方向の画素数は、夫々a3、b3である。これにより、車両が左カーブを曲がる場合は、部分画像の位置は、撮像画像において左方向に移動し、車両が右カーブを曲がる場合は、部分画像の位置は、撮像画像において右方向に移動し、車両が直進する場合は、部分画像の位置は、撮像画像の中心を通る縦線に対して左右対称になるようにしてある。なお、車速vと操舵角αとを同時に検出して、部分画像を特定する場合は、部分画像の横方向及び縦方向の画素数は、車速vに応じて定めることができる。   When the steering angle is α1, the x and y coordinates of the start pixel are x31 and y3, respectively, and the number of pixels in the horizontal and vertical directions of the partial image is a3 and b3, respectively. When the steering angle is 0, the x and y coordinates of the start pixel are x32 (x32> x31) and y3, respectively, and the number of pixels in the horizontal and vertical directions of the partial image are a3 and b3, respectively. . When the steering angle is −α1, the x and y coordinates of the start pixel are x33 (x33> x32) and y3, respectively, and the number of pixels in the horizontal and vertical directions of the partial image is a3 and b3, respectively. is there. As a result, when the vehicle turns a left curve, the position of the partial image moves to the left in the captured image, and when the vehicle turns the right curve, the position of the partial image moves to the right in the captured image. When the vehicle goes straight, the position of the partial image is symmetrical with respect to the vertical line passing through the center of the captured image. When the partial image is specified by simultaneously detecting the vehicle speed v and the steering angle α, the number of pixels in the horizontal and vertical directions of the partial image can be determined according to the vehicle speed v.

また、傾斜角がβ1の場合は、始点画素のx、y座標は、夫々x4、y41であり、部分画像の横方向及び縦方向の画素数は、夫々a4、b4である。また、傾斜角が0の場合は、始点画素のx、y座標は、夫々x4、y42(y42<y41)であり、部分画像の横方向及び縦方向の画素数は、夫々a4、b4である。また、操舵角が−β1の場合は、始点画素のx、y座標は、夫々x4、y43(y43<y42)であり、部分画像の横方向及び縦方向の画素数は、夫々a4、b4である。これにより、車両が前方上方向に傾斜する場合は、部分画像の位置は、撮像画像において下方向に移動し、車両が前方下方向に傾斜する場合は、部分画像の位置は、撮像画像において上方向に移動し、車両が傾斜していない場合は、部分画像の位置は、撮像画像の中心を通る横線に対して上下対称になるようにしてある。なお、車速vと傾斜角βとを同時に検出して、部分画像を特定する場合は、部分画像の横方向及び縦方向の画素数は、車速vに応じて定めることができる。   When the inclination angle is β1, the x and y coordinates of the start pixel are x4 and y41, respectively, and the number of pixels in the horizontal and vertical directions of the partial image is a4 and b4, respectively. When the tilt angle is 0, the x and y coordinates of the start pixel are x4 and y42 (y42 <y41), respectively, and the number of pixels in the horizontal and vertical directions of the partial image is a4 and b4, respectively. . When the steering angle is −β1, the x and y coordinates of the start pixel are x4 and y43 (y43 <y42), respectively, and the number of pixels in the horizontal and vertical directions of the partial image is a4 and b4, respectively. is there. As a result, when the vehicle is tilted forward and upward, the position of the partial image moves downward in the captured image, and when the vehicle is tilted forward and downward, the position of the partial image is upward in the captured image. When the vehicle moves in the direction and the vehicle is not inclined, the position of the partial image is vertically symmetrical with respect to a horizontal line passing through the center of the captured image. Note that when the partial image is specified by simultaneously detecting the vehicle speed v and the inclination angle β, the number of pixels in the horizontal and vertical directions of the partial image can be determined according to the vehicle speed v.

次に本発明に係る車両周辺認識システムの動作について説明する。運転者が、表示装置3に備えられた操作部を操作してビデオカメラ1の動作スイッチをオンにすると、動作信号を前記操作部から受信した画像処理装置2は、インタフェース部21を介して、初期コマンドをビデオカメラ1へ送出する。   Next, the operation of the vehicle periphery recognition system according to the present invention will be described. When the driver operates the operation unit provided in the display device 3 to turn on the operation switch of the video camera 1, the image processing device 2 that has received the operation signal from the operation unit receives the operation signal via the interface unit 21. An initial command is sent to the video camera 1.

初期コマンドを受信したビデオカメラ1は、撮像部11から車両の周辺の撮像を開始する。信号処理部12は、撮像して得られた撮像画像を一旦画像メモリ14に記録した後に、ビデオカメラ1のフレームレートと同期して1フレーム分の撮像画像を、インタフェース部13を介して、画像処理装置2へ送出する。   The video camera 1 that has received the initial command starts imaging around the vehicle from the imaging unit 11. The signal processing unit 12 once records a captured image obtained by imaging in the image memory 14, and then transmits the captured image for one frame in synchronization with the frame rate of the video camera 1 via the interface unit 13. The data is sent to the processing device 2.

画像処理装置2は、1フレーム分の撮像画像を一旦画像メモリ23に記憶する。画像処理部26は、画像メモリ23に記憶された撮像画像を読み出すとともに、フレームレートに同期して記憶部24から車速v、操舵角α、傾斜角βを読み出す。   The image processing apparatus 2 temporarily stores the captured image for one frame in the image memory 23. The image processing unit 26 reads the captured image stored in the image memory 23 and reads the vehicle speed v, the steering angle α, and the inclination angle β from the storage unit 24 in synchronization with the frame rate.

画像処理部26は、読み出した車速v、操舵角α、傾斜角βに基づいてLUT261から部分画像の範囲を特定するパラメータを読み出し、画像メモリ23から読み出した撮像画像から部分画像の範囲を特定し、特定した部分画像をフレームメモリ262に記憶する。この場合、画像処理部26は、1フレーム分の撮像画像の左上の画素から右下の画素まで順次走査し、読み出したパラメータに応じて部分画像を構成する角画素を抽出する。   The image processing unit 26 reads parameters for specifying the range of the partial image from the LUT 261 based on the read vehicle speed v, steering angle α, and inclination angle β, and specifies the range of the partial image from the captured image read from the image memory 23. The specified partial image is stored in the frame memory 262. In this case, the image processing unit 26 sequentially scans from the upper left pixel to the lower right pixel of the captured image for one frame, and extracts the corner pixels constituting the partial image according to the read parameters.

歩行者認識処理部263は、フレームメモリ262に記憶された部分画像を読み出し、読み出した部分画像と、標準パターン部241から読み出した標準パターンH1、H2、…との類似度を判定し、歩行者が存在する場合は、認識された歩行者を強調表示すべく、歩行者を囲む矩形状の枠を付ける処理をして、処理後の画像データを出力部25へ出力する。   The pedestrian recognition processing unit 263 reads the partial image stored in the frame memory 262, determines the similarity between the read partial image and the standard patterns H1, H2,. Is present, a process of applying a rectangular frame surrounding the pedestrian is performed to highlight the recognized pedestrian, and the processed image data is output to the output unit 25.

表示装置3は、出力部25を介して出力された画像データに基づき、外界の状況とともに、認識した歩行者の存在をディスプレイに表示する。また、歩行者が認識された場合には、歩行者の位置、距離などに応じて警告音を発する。   Based on the image data output via the output unit 25, the display device 3 displays the presence of the recognized pedestrian on the display along with the external environment. When a pedestrian is recognized, a warning sound is emitted according to the position, distance, etc. of the pedestrian.

図5乃至図7は撮像画像における部分画像の位置関係を示す説明図である。図に示すように、車速がv1からv2(v2>v1)に高速になった場合、撮像画像100において、部分画像50のサイズは部分画像51のサイズへと小さくなる。なお、部分画像51の画素数は、部分画像50の画素数よりも少ないため、所定のサイズの表示装置で画像を表示させた場合、部分画像51内で認識された歩行者は、大きく表示される。   5 to 7 are explanatory diagrams showing the positional relationship of the partial images in the captured image. As shown in the figure, when the vehicle speed increases from v1 to v2 (v2> v1), the size of the partial image 50 is reduced to the size of the partial image 51 in the captured image 100. Since the number of pixels of the partial image 51 is smaller than the number of pixels of the partial image 50, when an image is displayed on a display device of a predetermined size, the pedestrian recognized in the partial image 51 is displayed large. The

また、車両を左方向に操舵した場合は、部分画像52の位置は、撮像画像50において左方向に移動し、車両を直進させた場合は、部分画像53の位置は、撮像画像50の中心を通る縦線に対して左右対称になり、車両を右方向に操舵した場合は、部分画像54の位置は、撮像画像50において右方向に移動する。   Further, when the vehicle is steered leftward, the position of the partial image 52 moves leftward in the captured image 50, and when the vehicle is moved straight, the position of the partial image 53 is centered on the captured image 50. When the vehicle is steered rightward with respect to the passing vertical line, the position of the partial image 54 moves rightward in the captured image 50.

また、車両が前方上方向に傾斜した場合は、部分画像55の位置は、撮像画像50において下方向に移動し、車両が傾斜していない場合は、部分画像56の位置は、撮像画像50の中心を通る横線に対して上下対称になり、車両が前方下方向に傾斜した場合は、部分画像57の位置は、撮像画像50において上方向に移動する。   When the vehicle is tilted forward and upward, the position of the partial image 55 moves downward in the captured image 50. When the vehicle is not tilted, the position of the partial image 56 is the position of the captured image 50. When the vehicle is vertically symmetrical with respect to a horizontal line passing through the center and the vehicle is inclined forward and downward, the position of the partial image 57 moves upward in the captured image 50.

以上説明したように、本発明にあっては、画角が標準のレンズを有するビデオカメラで撮像した高解像度の撮像画像から、車速v、操舵角α、傾斜角βに応じて撮像画像の一部である部分画像を特定し、部分画像のサイズ、撮像画像における部分画像の位置を変更することにより、車両の走行状態が変化した場合であっても、ビデオカメラの駆動装置又はズーム機構を用いることなく、歩行者の認識に必要な撮像領域を切り出すことができ、歩行者の認識をすることができる。   As described above, according to the present invention, from a high-resolution captured image captured by a video camera having a standard angle of view, one of the captured images according to the vehicle speed v, the steering angle α, and the tilt angle β. Even if the driving state of the vehicle changes by specifying the partial image that is a part and changing the size of the partial image and the position of the partial image in the captured image, the video camera drive device or zoom mechanism is used. Therefore, an imaging region necessary for pedestrian recognition can be cut out, and pedestrian recognition can be performed.

上述の実施の形態においては、ビデオカメラは、CCDを有するものであったが、これに限らず、CMOSを有するものであってもよい。また、ビデオカメラは可視光用のビデオカメラに限定されるものではなく、ボロメータ型、サーモパイル型、焦電型、SOIダイオードなどの遠赤外線撮像素子を用いた遠赤外線光用ビデオカメラであってもよく、また、中赤外光用のビデオカメラ又は近赤外光用のビデオカメラを用いる構成であってもよい。この場合、広角レンズは、ゲルマニウム製、硫化亜鉛製などのものを使用することができる。   In the above-described embodiment, the video camera has a CCD. However, the video camera is not limited to this and may have a CMOS. Further, the video camera is not limited to a visible light video camera, and may be a far infrared light video camera using a far infrared imaging device such as a bolometer type, a thermopile type, a pyroelectric type, or an SOI diode. Alternatively, a configuration using a video camera for mid-infrared light or a video camera for near-infrared light may be used. In this case, a wide-angle lens made of germanium, zinc sulfide, or the like can be used.

上述の実施の形態においては、部分画像のパラメータをLUTに記憶してある構成であったが、これに限定されるものではなく、フレームレートと同期して検出した車速v、操舵角α、傾斜角βに基づいて、前記パラメータを演算する構成であってもよい。   In the above-described embodiment, the parameters of the partial image are stored in the LUT. However, the present invention is not limited to this, and the vehicle speed v, the steering angle α, the inclination detected in synchronization with the frame rate are not limited thereto. The configuration may be such that the parameter is calculated based on the angle β.

上述の実施の形態において、撮像素子のサイズ(画素数)、部分画像のサイズは一例であって、これに限定されるものでない。   In the above-described embodiment, the size of the image sensor (number of pixels) and the size of the partial image are examples, and are not limited thereto.

上述の実施の形態においては、車両周辺を認識するものとして歩行者を認識する場合について説明したが、これは一例であって、これに限定されるものではない。すなわち、歩行者の他に、道路上の障害物、近接車両、路面表示、道路標識など、車両周辺の対象物を認識することができる。   In the above-described embodiment, the case of recognizing a pedestrian as recognizing the periphery of the vehicle has been described, but this is an example, and the present invention is not limited to this. That is, in addition to pedestrians, obstacles on the road, nearby vehicles, road surface displays, road signs, and other objects around the vehicle can be recognized.

上述の実施の形態においては、部分画像のパラメータとして、始点画素のx、y座標、横方向及び縦方向の画素数を用いる構成であったが、これに限定されるものではなく、撮像画像における部分画像の大きさ、位置を特定することができるパラメータであれば、いずれパラメータを用いてもよい。   In the above-described embodiment, the configuration uses the x and y coordinates of the start pixel and the number of pixels in the horizontal and vertical directions as the parameters of the partial image. However, the present invention is not limited to this. Any parameter may be used as long as it can specify the size and position of the partial image.

上述の実施の形態においては、画角が標準のレンズを用いる構成であったが、画角が広角(50°以上)のレンズを用いる構成であってもよい。   In the above-described embodiment, a lens having a standard angle of view is used. However, a lens having a wide angle of view (50 ° or more) may be used.

上述の実施の形態においては、LUT261から読み出したパラメータに基づいて特定した特定画像をフレームメモリ262に記憶する構成であったが、特定画像の特定は、これに限定されるものではなく、部分画像を特定する境界上の各画素の座標を記憶し、記憶した各画素の座標に基づいて、各画素で囲まれる領域において歩行者認識処理を行う構成であってもよい。   In the above-described embodiment, the specific image specified based on the parameters read from the LUT 261 is stored in the frame memory 262. However, the specification of the specific image is not limited to this, and the partial image is not limited to this. The configuration may be such that the coordinates of each pixel on the boundary that identifies the pedestrian are stored, and the pedestrian recognition process is performed in the area surrounded by each pixel based on the stored coordinates of each pixel.

本発明に係る車両周辺認識システムの概要を示す模式図である。It is a schematic diagram which shows the outline | summary of the vehicle periphery recognition system which concerns on this invention. ビデオカメラの構成を示すブロック図である。It is a block diagram which shows the structure of a video camera. 画像処理装置の構成を示すブロック図である。It is a block diagram which shows the structure of an image processing apparatus. LUTの構成を示すレコードレイアウトである。It is a record layout which shows the structure of LUT. 撮像画像における部分画像の位置関係を示す説明図である。It is explanatory drawing which shows the positional relationship of the partial image in a captured image. 撮像画像における部分画像の位置関係を示す説明図である。It is explanatory drawing which shows the positional relationship of the partial image in a captured image. 撮像画像における部分画像の位置関係を示す説明図である。It is explanatory drawing which shows the positional relationship of the partial image in a captured image.

符号の説明Explanation of symbols

1 ビデオカメラ
2 画像処理装置
3 表示装置
4 操舵角センサ
5a、5b 距離センサ
6 速度センサ
11 撮像部
110 透過窓
111、112 広角レンズ
113 撮像素子
12 信号処理部
13 インタフェース部
14 画像メモリ
15 制御部
21 インタフェース部
22 入力部
23 画像メモリ
24 記憶部
25 出力部
26 画像処理部
242 車両情報部
261 LUT
262 フレームメモリ
263 歩行者認識処理部
DESCRIPTION OF SYMBOLS 1 Video camera 2 Image processing apparatus 3 Display apparatus 4 Steering angle sensor 5a, 5b Distance sensor 6 Speed sensor 11 Imaging part 110 Transmission window 111, 112 Wide angle lens 113 Imaging element 12 Signal processing part 13 Interface part 14 Image memory 15 Control part 21 Interface unit 22 Input unit 23 Image memory 24 Storage unit 25 Output unit 26 Image processing unit 242 Vehicle information unit 261 LUT
262 Frame memory 263 Pedestrian recognition processing unit

Claims (5)

車両の周辺を撮像装置で撮像し、撮像して得られた撮像画像を画像処理装置で処理して車両周辺を認識する車両周辺認識システムにおいて、
前記撮像装置は、
画角が広角又は標準のレンズ部を有し、
前記画像処理装置は、
車両の走行状態に関連する情報を取得する取得手段と、
該取得手段が取得した情報に基づいて、前記撮像画像の一部を部分画像として特定する特定手段と
を備え、
該特定手段が特定した部分画像に基づいて、車両周辺を認識するようにしてあることを特徴とする車両周辺認識システム。
In a vehicle periphery recognition system that captures the periphery of a vehicle with an imaging device, processes the captured image obtained by imaging with the image processing device and recognizes the periphery of the vehicle,
The imaging device
The angle of view has a wide angle or standard lens part,
The image processing apparatus includes:
Obtaining means for obtaining information relating to the running state of the vehicle;
A specifying unit that specifies a part of the captured image as a partial image based on the information acquired by the acquiring unit;
A vehicle periphery recognition system characterized in that the periphery of the vehicle is recognized based on the partial image specified by the specifying means.
前記取得手段は、
車両速度を取得するようにしてあり、
前記特定手段は、
前記部分画像の大きさを変更する変更手段を有し、
該変更手段は、
取得した車両速度に高低に応じて、前記撮像画像における部分画像の大小を変更するようにしてあることを特徴とする請求項1に記載の車両周辺認識システム。
The acquisition means includes
To get the vehicle speed,
The specifying means is:
Changing means for changing the size of the partial image;
The changing means is
The vehicle periphery recognition system according to claim 1, wherein the size of the partial image in the captured image is changed according to the acquired vehicle speed.
前記取得手段は、
操舵角を取得するようにしてあり、
前記特定手段は、
前記撮像画像における部分画像の位置を変更する変更手段を有し、
該変更手段は、
取得した操舵角の大小に応じて、前記撮像画像における部分画像の位置を左右に変更するようにしてあることを特徴とする請求項1に記載の車両周辺認識システム。
The acquisition means includes
The steering angle is acquired,
The specifying means is:
Changing means for changing the position of the partial image in the captured image;
The changing means is
2. The vehicle periphery recognition system according to claim 1, wherein the position of the partial image in the captured image is changed to the right and left in accordance with the acquired steering angle.
前記取得手段は、
車両の前後の傾斜角を取得するようにしてあり、
前記特定手段は、
前記撮像画像における部分画像の位置を変更する変更手段を有し、
該変更手段は、
取得した傾斜角の大小に応じて、前記撮像画像における部分画像の位置を上下に変更するようにしてあることを特徴とする請求項1に記載の車両周辺認識システム。
The acquisition means includes
The vehicle's front and rear tilt angles are obtained,
The specifying means is:
Changing means for changing the position of the partial image in the captured image;
The changing means is
The vehicle periphery recognition system according to claim 1, wherein the position of the partial image in the captured image is changed up and down in accordance with the acquired inclination angle.
取り込んだ撮像画像を処理して車両周辺を認識する画像処理装置において、
車両の走行状態に関連する情報を取得する取得手段と、
該取得手段が取得した情報に基づいて、前記撮像画像の一部を部分画像として特定する特定手段と
を備え、
該特定手段が特定した部分画像に基づいて、車両周辺を認識するようにしてあることを特徴とする画像処理装置。


In the image processing apparatus that recognizes the vehicle periphery by processing the captured image,
Obtaining means for obtaining information relating to the running state of the vehicle;
A specifying unit that specifies a part of the captured image as a partial image based on the information acquired by the acquiring unit;
An image processing apparatus characterized in that a vehicle periphery is recognized based on a partial image specified by the specifying means.


JP2004369755A 2004-12-21 2004-12-21 Vehicle environment recognition system and image processor Pending JP2006178652A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004369755A JP2006178652A (en) 2004-12-21 2004-12-21 Vehicle environment recognition system and image processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004369755A JP2006178652A (en) 2004-12-21 2004-12-21 Vehicle environment recognition system and image processor

Publications (1)

Publication Number Publication Date
JP2006178652A true JP2006178652A (en) 2006-07-06

Family

ID=36732722

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004369755A Pending JP2006178652A (en) 2004-12-21 2004-12-21 Vehicle environment recognition system and image processor

Country Status (1)

Country Link
JP (1) JP2006178652A (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008149879A (en) * 2006-12-18 2008-07-03 Clarion Co Ltd Operation assisting system
JP2011257984A (en) * 2010-06-09 2011-12-22 Toyota Central R&D Labs Inc Object detection device and program
US8207834B2 (en) 2008-02-01 2012-06-26 Hitachi, Ltd. Image processing device and vehicle detection device provided with the same
DE102011078615A1 (en) 2011-07-04 2013-01-10 Toyota Jidosha K.K. Object detector for detecting pedestrian in surrounding area of vehicle, has pedestrian identification portion for identifying whether window image is image depicting object, and identification model selected to identify object
WO2014017104A1 (en) 2012-07-27 2014-01-30 京セラ株式会社 Image processing device, image pickup device, mobile unit, program and region setting method
JP2015018515A (en) * 2013-07-12 2015-01-29 矢崎エナジーシステム株式会社 On-vehicle device
US8994823B2 (en) 2011-07-05 2015-03-31 Toyota Jidosha Kabushiki Kaisha Object detection apparatus and storage medium storing object detection program
JP2015135591A (en) * 2014-01-17 2015-07-27 株式会社リコー Information processing apparatus, information processing method, and program
JP2019071605A (en) * 2018-10-03 2019-05-09 株式会社ユピテル Video recording apparatus for vehicle, reproducing apparatus, and program
JP2020080544A (en) * 2018-10-03 2020-05-28 株式会社ユピテル Image recording apparatus for vehicle, reproduction apparatus, and program
US11272111B2 (en) 2019-05-23 2022-03-08 Denso Corporation Image processing apparatus
EP4400367A4 (en) * 2021-09-28 2024-09-18 Huawei Tech Co Ltd Method and apparatus for controlling angle of view of vehicle-mounted camera, and vehicle

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008149879A (en) * 2006-12-18 2008-07-03 Clarion Co Ltd Operation assisting system
US8207834B2 (en) 2008-02-01 2012-06-26 Hitachi, Ltd. Image processing device and vehicle detection device provided with the same
JP2011257984A (en) * 2010-06-09 2011-12-22 Toyota Central R&D Labs Inc Object detection device and program
DE102011078615B4 (en) 2011-07-04 2022-07-14 Toyota Jidosha Kabushiki Kaisha OBJECT DETECTION DEVICE AND OBJECT DETECTION PROGRAM
DE102011078615A1 (en) 2011-07-04 2013-01-10 Toyota Jidosha K.K. Object detector for detecting pedestrian in surrounding area of vehicle, has pedestrian identification portion for identifying whether window image is image depicting object, and identification model selected to identify object
US8994823B2 (en) 2011-07-05 2015-03-31 Toyota Jidosha Kabushiki Kaisha Object detection apparatus and storage medium storing object detection program
WO2014017104A1 (en) 2012-07-27 2014-01-30 京セラ株式会社 Image processing device, image pickup device, mobile unit, program and region setting method
CN104488011A (en) * 2012-07-27 2015-04-01 京瓷株式会社 Image processing device, image pickup device, mobile unit, program and region setting method
JPWO2014017104A1 (en) * 2012-07-27 2016-07-07 京セラ株式会社 Image processing apparatus, imaging apparatus, moving object, program, and region setting method
US9990556B2 (en) 2012-07-27 2018-06-05 Kyocera Corporation Image processing apparatus, imaging apparatus, movable object, program, and region setting method
JP2015018515A (en) * 2013-07-12 2015-01-29 矢崎エナジーシステム株式会社 On-vehicle device
JP2015135591A (en) * 2014-01-17 2015-07-27 株式会社リコー Information processing apparatus, information processing method, and program
JP2020080544A (en) * 2018-10-03 2020-05-28 株式会社ユピテル Image recording apparatus for vehicle, reproduction apparatus, and program
JP2019071605A (en) * 2018-10-03 2019-05-09 株式会社ユピテル Video recording apparatus for vehicle, reproducing apparatus, and program
US11272111B2 (en) 2019-05-23 2022-03-08 Denso Corporation Image processing apparatus
EP4400367A4 (en) * 2021-09-28 2024-09-18 Huawei Tech Co Ltd Method and apparatus for controlling angle of view of vehicle-mounted camera, and vehicle

Similar Documents

Publication Publication Date Title
JP4766841B2 (en) Camera device and vehicle periphery monitoring device mounted on vehicle
US10528825B2 (en) Information processing device, approaching object notification method, and program
US7538795B2 (en) Monitor device for moving body
CN100462835C (en) Camera unit and apparatus for monitoring vehicle periphery
JP6307895B2 (en) Vehicle periphery monitoring device
JP5036891B2 (en) Camera device and vehicle periphery monitoring device mounted on vehicle
WO2014054753A1 (en) Image processing device and device for monitoring area in front of vehicle
JP2009206747A (en) Ambient condition monitoring system for vehicle, and video display method
US10300859B2 (en) Multi-sensor interior mirror device with image adjustment
US20200039435A1 (en) Onboard camera system for eliminating a-pillar blind areas of a mobile vehicle and image processing method thereof
JP2006178652A (en) Vehicle environment recognition system and image processor
KR20190129684A (en) Imaging Device, Imaging Module, and Control Method of Imaging Device
JP5951785B2 (en) Image processing apparatus and vehicle forward monitoring apparatus
JP2006254318A (en) Vehicle-mounted camera, vehicle-mounted monitor and forward road area imaging method
JP4062145B2 (en) Imaging device
CN111345036A (en) Image processing apparatus, imaging apparatus, driving assistance apparatus, moving object, and image processing method
JP2024050331A (en) Movable body and method for installing imaging device
JP2005242914A (en) Human recognition system and image processor
WO2021182190A1 (en) Imaging device, imaging system, and imaging method
JP2006024120A (en) Image processing system for vehicles and image processor
JPH0858470A (en) Rear view confirmation device
JP2006191210A (en) Vehicle circumference recognition system and image processor
JP2022015696A (en) Image recognition device, method for recognizing image, and image recognition program
JP2005196423A (en) Image display method, image display system and image processor
JP4747670B2 (en) Image processing device