JP5408482B2 - Peripheral recognition support device - Google Patents

Peripheral recognition support device Download PDF

Info

Publication number
JP5408482B2
JP5408482B2 JP2009144465A JP2009144465A JP5408482B2 JP 5408482 B2 JP5408482 B2 JP 5408482B2 JP 2009144465 A JP2009144465 A JP 2009144465A JP 2009144465 A JP2009144465 A JP 2009144465A JP 5408482 B2 JP5408482 B2 JP 5408482B2
Authority
JP
Japan
Prior art keywords
driver
vehicle
monitor
image
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009144465A
Other languages
Japanese (ja)
Other versions
JP2011000933A (en
Inventor
昇 長嶺
一矢 渡邊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Aisin Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd, Aisin Corp filed Critical Aisin Seiki Co Ltd
Priority to JP2009144465A priority Critical patent/JP5408482B2/en
Publication of JP2011000933A publication Critical patent/JP2011000933A/en
Application granted granted Critical
Publication of JP5408482B2 publication Critical patent/JP5408482B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、周辺認知支援装置に関し、詳しくは、車載カメラによって撮影した車両の周辺画像を撮影した画像をモニタに表示する技術に関する。   The present invention relates to a periphery recognition support device, and more particularly to a technique for displaying an image obtained by capturing a surrounding image of a vehicle captured by an in-vehicle camera on a monitor.

上記のように構成された周辺認知支援装置に関連するものとして特許文献1には、運転者の位置から死角になる領域を撮影する複数のCCDカメラが車体に備えられ、車内には運転者の顔を撮影する赤外線カメラが備えられた車両周辺表示装置が示されている。この車両周辺表示装置では、赤外線カメラで撮影された画像から運転者の顔の向き等を求めて運転者が注視する方向を判別するECUを備えており、このECUは判別された顔の方向のカメラで撮影された画像をモニタに表示する制御を行う。   As related to the peripheral recognition support apparatus configured as described above, Patent Document 1 includes a plurality of CCD cameras that capture an area that becomes a blind spot from a driver's position, and the driver's position is within the vehicle. A vehicle periphery display device equipped with an infrared camera for photographing a face is shown. This vehicle periphery display device includes an ECU that determines the direction of the driver's gaze by determining the direction of the driver's face from an image captured by an infrared camera, and the ECU determines the direction of the determined face. Control is performed to display an image captured by the camera on the monitor.

周辺認知支援装置に関連するものとして特許文献2には、特許文献1と類似する構成を備えた車両用モニタリングシステムでは、運転者用カメラで撮影された運転者の顔の向きを顔向き検知ECUで判別し、顔の向きに一致する特定領域の画像の拡大表示を行う拡大表示手段が備えられている。   As related to the peripheral recognition assisting device, Patent Document 2 discloses a vehicle monitoring system having a configuration similar to that of Patent Document 1, in which a face orientation detection ECU detects the orientation of the driver's face taken by the driver's camera. And an enlarged display means for enlarging and displaying an image of a specific area matching the face orientation.

特開2007‐142724号公報 (段落番号〔0016〕〜〔0076〕、図1〜図4)JP 2007-142724 A (paragraph numbers [0016] to [0076], FIGS. 1 to 4) 特開2007‐15663号公報 (段落番号〔0027〕、〔0059〕、図1〜図7)JP, 2007-15663, A (paragraph numbers [0027], [0059], FIGS. 1 to 7)

車両を後進させて駐車を行う際の運転者の操作を例に挙げると、車両を後進させる際には、運転者は上半身を捩るように車両の後方を振り返り、車両の後方を直接的に確認することや、場合によっては運転座席のドアのウインドウを開放し、この開放部位から車両の後方を直接的に確認することや、サイドミラーに視線を向けることでミラーを介して車両の後方を確認することが行われている。また、車両の後方を撮影するカメラを備えたものでは、運転座席近傍のディスプレイに対してカメラからの画像を表示することで車両の後方を確認することも行われている。   For example, the driver's operation when the vehicle is parked backwards, when driving the vehicle backwards, the driver looks back at the back of the vehicle to twist the upper body and directly checks the back of the vehicle Or, in some cases, open the door window of the driver's seat and check the rear of the vehicle directly from this open part, or check the rear of the vehicle through the mirror by looking at the side mirror To be done. Further, in the case of a camera equipped with a camera that captures the rear of the vehicle, the rear of the vehicle is confirmed by displaying an image from the camera on a display near the driver's seat.

このように車両を後進させる際には、車両の後方の確認を行うことは重要であり、特許文献1に記載されるように運転者から死角になる領域をモニタに表示する制御が有効となり、特許文献2に記載されるように運転者が必要とする方向の映像をモニタに表示することも有効となる。   Thus, when the vehicle is moved backward, it is important to confirm the rear of the vehicle, and as described in Patent Document 1, control for displaying on the monitor the area where the driver is blind spot is effective, As described in Patent Document 2, it is also effective to display an image in the direction required by the driver on the monitor.

しかしながら、狭い駐車スペースに車両を導入する場合や障害物が存在する領域に車両を導入する場合には、車両の後方の一部の領域を確認するだけでは、不充分な場合があり、例えば、車両の前端部に近い領域に障害物が存在する場合には、ステアリング操作に伴い車両の前端部が横方向に振れる際に、その障害物に接触する可能性もあり、このような前端部位置の障害物の確認も同時に行う必要があった。   However, when introducing a vehicle into a narrow parking space or when introducing a vehicle into an area where there are obstacles, it may not be sufficient to check only a partial area behind the vehicle. If there is an obstacle in the area near the front end of the vehicle, there is a possibility that the front end of the vehicle may come into contact with the obstacle when the front end of the vehicle swings laterally as a result of the steering operation. It was necessary to check the obstacles at the same time.

このような状況を考えると特許文献1や特許文献2に記載されるように、運転者の状態から自動的にモニタに情報を表示する有効性は認められるものの、運転者が目視している領域をモニタに表示するだけでは不充分であることも考えられ改善の余地がある。   Considering such a situation, as described in Patent Document 1 and Patent Document 2, although the effectiveness of automatically displaying information on the monitor from the state of the driver is recognized, the region that the driver is viewing It is possible that there is room for improvement because it may be insufficient to simply display the image on the monitor.

本発明の目的は、運転者の状態から運転者が目視する領域と異なる領域の確認が可能な装置を合理的に構成する点にある。
The objective of this invention exists in the point which comprises rationally the apparatus which can confirm the area | region different from the area | region which a driver | operator visually observes from a driver | operator's state.

本発明の特徴は、車両周辺を撮影する車載カメラと、この車載カメラで撮影された画像を表示するモニタとを備えると共に、
車両の運転座席に着座した運転者の姿勢から運転者が目視する方向を推定する目視方向推定手段と、
前記車載カメラで撮影された車体周辺の撮影画像のうち、前記目視方向推定手段に基づいて推定した目視方向と異なる方向となる車体周辺の撮影画像を前記モニタに表示する表示対象設定手段が備えられている点にある。
The features of the present invention include an in-vehicle camera that captures the periphery of the vehicle, and a monitor that displays an image captured by the in-vehicle camera,
Visual direction estimating means for estimating the direction viewed by the driver from the posture of the driver seated on the driver's seat of the vehicle;
Display target setting means for displaying, on the monitor, a photographed image around the vehicle body in a direction different from the visual direction estimated based on the visual direction estimating means among the photographed images around the vehicle body photographed by the in-vehicle camera. There is in point.

この構成によると、運転者の姿勢から目視方向推定手段に基づいて目視方向を推定するので、視線の方向を特定するためのカメラ類を用いずに構成することが可能となり、また、車載カメラで撮影された車体周辺の撮影画像のうち、推定した目視方向と異なる方向となる車体周辺の画像が、表示対象設定手段によってモニタに表示される。そして、この表示対象がモニタに表示されることで運転者の注意を促すことも可能となる。つまり、運転者は目視していない方向の車体周辺の状況を積極的に確認している訳ではないので、運転者が目視しない領域をモニタに表示することで、運転者が障害物等の見落としを少なくできる。
その結果、運転者の状態から運転者が確認を行う領域と異なる領域の確認が可能な装置が合理的に構成された。
According to this configuration, since the viewing direction is estimated from the driver's posture based on the viewing direction estimation means , it is possible to configure without using cameras for identifying the direction of the line of sight. Of the photographed images around the vehicle body, an image around the vehicle body that is different from the estimated viewing direction is displayed on the monitor by the display target setting means. And it becomes possible to call a driver | operator's attention by displaying this display object on a monitor. In other words, the driver does not actively check the situation around the vehicle body in the direction that the driver is not viewing, so by displaying the area that the driver does not see on the monitor, the driver overlooks obstacles, etc. Can be reduced.
As a result, an apparatus that can confirm a region different from the region in which the driver confirms from the state of the driver is rationally configured.

本発明は、車体外部に存在する障害物を検出する障害物検出手段を備え、前記表示対象設定手段は、前記目視方向と異なる方向において前記障害物検出手段で障害物が検出された領域の撮影画像を表示対象に設定しても良い。
これによると、運転者が目視する方向と異なる方向において、障害物検出手段が障害物を検出した場合に、その障害物が検出された領域がモニタに表示されることになるので、例えば、障害物が検出されない場合には、車体の進行方向の撮影画像や、所謂トップビュー等を表示しておき、障害物が検出された場合に、その領域を表示することにより、運転者に注意を促すことも可能となる。
The present invention includes an obstacle detection unit that detects an obstacle existing outside the vehicle body, and the display target setting unit captures an area in which the obstacle detection unit detects an obstacle in a direction different from the viewing direction. An image may be set as a display target.
According to this, when the obstacle detection means detects an obstacle in a direction different from the direction in which the driver sees, the area where the obstacle is detected is displayed on the monitor. When an object is not detected, a captured image of the traveling direction of the vehicle body, a so-called top view, etc. is displayed, and when an obstacle is detected, the area is displayed to alert the driver. It is also possible.

本発明は、前記目視方向推定手段が、前記運転座席に着座した運転者の荷重情報を取得する荷重センサを備えても良い。
これによると、運転座席に備えた荷重センサの荷重情報から運転者の姿勢を判別できる。
In the present invention, the visual direction estimating means may include a load sensor for acquiring load information of a driver seated on the driver seat.
According to this, a driver | operator's attitude | position can be discriminate | determined from the load information of the load sensor with which the driver's seat was equipped.

本発明は、前記目視方向推定手段が、前記運転座席に着座した運転者と、運転者近傍のドアとの距離情報を取得するように前記ドアに形成された近接センサを備えても良い。
これによると、ドアに備えた近接センサの距離情報から運転者の姿勢を判別できる。
In the present invention, the visual direction estimating means may include a proximity sensor formed on the door so as to acquire distance information between a driver seated on the driver's seat and a door near the driver.
According to this, a driver | operator's attitude | position can be discriminate | determined from the distance information of the proximity sensor with which the door was equipped.

本発明は、前記目視方向推定手段が、ステアリングホイールを運転者が握る把持位置と把持力とを圧力情報として取得する感圧センサを備えても良い。
これによると、ステアリングホイールに備えた感圧センサの圧力情報から運転者がステアイングホイールを握る把持位置と把持力とを特定し、これに基づいて運転者の姿勢を判別できる。
In the present invention, the visual direction estimating means may include a pressure sensor that acquires, as pressure information, a grip position and a grip force at which the driver grips the steering wheel.
According to this, it is possible to identify the gripping position and gripping force at which the driver grips the steering wheel from the pressure information of the pressure sensor provided on the steering wheel, and to determine the driver's posture based on this.

本発明は、前記表示対象設定手段で設定された表示対象の撮影画像のうち、前記目視方向と異なる方向の画像を切り出して前記モニタに表示する表示領域抽出手段を備えても良い。
これによると、複数の車載カメラを備えなくとも、撮影画像からモニタに表示すべき画像を切り出して拡大表示できる。
The present invention may further include a display area extracting unit that cuts out an image in a direction different from the viewing direction from the captured image to be displayed set by the display target setting unit and displays the image on the monitor.
According to this, an image to be displayed on a monitor can be cut out and enlarged from a captured image without providing a plurality of in-vehicle cameras.

本発明は、前記車載カメラが車体周辺の異なる領域を撮影するように複数備えられ、前記表示対象設定手段は、前記車載カメラで撮影された撮影画像のうち、前記目視方向と異なる方向の領域を撮影する車載カメラからの画像を選択してモニタに表示しても良い。
これによると、複数の車載カメラのうちの1つからの画像を選択してモニタに表示するので、モニタに表示される画像の画質を低下させることがない。
The present invention is provided with a plurality of such in-vehicle cameras to capture different areas around the vehicle body, and the display target setting means includes an area in a direction different from the viewing direction in the captured image captured by the in-vehicle camera. You may select the image from the vehicle-mounted camera to image | photograph, and may display on a monitor.
According to this, since an image from one of the plurality of in-vehicle cameras is selected and displayed on the monitor, the image quality of the image displayed on the monitor is not deteriorated.

車両の構成を示す斜視図である。It is a perspective view which shows the structure of a vehicle. 車内のパネル部を示す斜視図である。It is a perspective view which shows the panel part in a vehicle. カメラの撮影領域を示す平面図である。It is a top view which shows the imaging region of a camera. 制御系を示すブロック回路図である。It is a block circuit diagram which shows a control system. 表示制御ルーチンのフローチャートである。It is a flowchart of a display control routine. 運転者の目視方向等を示す図である。It is a figure which shows a driver | operator's visual direction. 駐車エリアと車体との位置関係を示す平面図である。It is a top view which shows the positional relationship of a parking area and a vehicle body. リアカメラの撮影画像が表示されたモニタを示す図である。It is a figure which shows the monitor on which the picked-up image of the rear camera was displayed. フロントカメラの撮影画像が表示されたモニタを示す図である。It is a figure which shows the monitor on which the picked-up image of the front camera was displayed. 左サイドカメラの撮影画像と右サイドカメラの撮影画像とが表示されたモニタを示す図である。It is a figure which shows the monitor on which the picked-up image of the left side camera and the picked-up image of the right side camera were displayed. 障害物が表示されたモニタを示す図である。It is a figure which shows the monitor on which the obstruction was displayed.

以下、本発明の実施の形態を図面に基づいて説明する。
〔車体構成〕
図1〜図3には車両の一例としての乗用車を示している。この乗用車の車体Aには左右一対の前車輪1及び左右一対の後車輪2が備えられ、ルーム内には運転座席3と助手席4とが備えられ、運転座席3の前方位置にステアリングホイール5が配置されている。また、運転座席3の前方位置にメータ類を有するパネル6が備えられ、このパネル6と隣接する位置に各種情報を表示するモニタ7が備えられている。パネル6の下方にはアクセルペダル8とブレーキペダル9とが備えられ、運転座席3の側部には変速操作を実現するシフトレバー10が配置されている。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[Body configuration]
1 to 3 show a passenger car as an example of a vehicle. The vehicle body A of this passenger car is provided with a pair of left and right front wheels 1 and a pair of left and right rear wheels 2, a driver seat 3 and a passenger seat 4 are provided in the room, and a steering wheel 5 is positioned in front of the driver seat 3. Is arranged. A panel 6 having meters is provided at a position in front of the driver's seat 3, and a monitor 7 for displaying various information is provided at a position adjacent to the panel 6. An accelerator pedal 8 and a brake pedal 9 are provided below the panel 6, and a shift lever 10 that realizes a shifting operation is disposed on the side of the driver seat 3.

ルーム内の前部にはルームミラー11が備えられている。車体前部の左ドア12の外部に左ドアミラー13が備えられ、車体前部の右側の右ドア14の外部に右ドアミラー15が備えられている。   A room mirror 11 is provided at the front of the room. A left door mirror 13 is provided outside the left door 12 at the front of the vehicle body, and a right door mirror 15 is provided outside the right door 14 at the right side of the front of the vehicle body.

車体Aの前端には車体前方の路面を含む周辺領域を撮影するフロントカメラ16が備えられ、車体Aの後端には車体後方の路面を含む周辺領域を撮影するリアカメラ17が備えられている。左ドアミラー13のハウジングには車体Aの左側方の路面を含む周辺領域を撮影する左サイドカメラ18が備えられ、これと同様に、右ドアミラー15のハウジングには車体の右側方の路面を含む周辺領域を撮影する右サイドカメラ19が備えられている。   A front camera 16 is provided at the front end of the vehicle body A for photographing a peripheral region including a road surface in front of the vehicle body, and a rear camera 17 is provided at a rear end of the vehicle body A for photographing a peripheral region including a road surface behind the vehicle body. . The housing of the left door mirror 13 is provided with a left side camera 18 for photographing a peripheral area including the road surface on the left side of the vehicle body A. Similarly, the housing of the right door mirror 15 includes a periphery including the road surface on the right side of the vehicle body. A right side camera 19 for photographing a region is provided.

これらフロントカメラ16、リアカメラ17、左サイドカメラ18、右サイドカメラ19は車載カメラの具体例であり、夫々ともCCDやCIS等の撮像素子を内蔵したデジタルカメラとして構成されている。これらのデジタルカメラは、撮像角度が水平方向に180度に及ぶ広角度レンズを有し、撮影した撮影画像を動画情報としてリアルタイムに出力する。図3には、フロントカメラ16の前方撮影領域Faと、リアカメラ17の後方撮影領域Baと、左サイドカメラ18の左方撮影領域Laと、右サイドカメラ19の右方撮影領域Raとを異なるハッチングを付して示しており、これらの領域が対応するカメラにおいて撮影画像として取得される。   The front camera 16, the rear camera 17, the left side camera 18, and the right side camera 19 are specific examples of an in-vehicle camera, and are each configured as a digital camera incorporating an image sensor such as a CCD or CIS. These digital cameras have a wide-angle lens with an imaging angle of 180 degrees in the horizontal direction, and output captured images in real time as moving image information. In FIG. 3, the front shooting area Fa of the front camera 16, the rear shooting area Ba of the rear camera 17, the left shooting area La of the left side camera 18, and the right shooting area Ra of the right side camera 19 are different. The areas are hatched, and these areas are acquired as captured images by the corresponding cameras.

車体Aの前端のバンパーの左右両端となる2箇所と、車体Aの後端のバンパーの左右両端となる2箇所との合計4箇所には、障害物を検出する超音波型や赤外線反射型等の距離センサDS(障害物検出手段の一例)が備えられている。   There are an ultrasonic type, an infrared reflection type, etc. for detecting obstacles in a total of four places, two places on the left and right ends of the bumper at the front end of the vehicle body A and two places on the left and right ends of the bumper at the rear end of the vehicle body A. Distance sensor DS (an example of an obstacle detection means) is provided.

この乗用車では、複数のGPS衛星から電波信号を受信することで車体Aの位置を地球の経度と緯度とで構成されるポジション情報を取得するナビゲーションシステム21を(図4を参照)を備えている。このナビゲーションシステム21は、取得したポジション情報に対応する領域の地図を前記モニタ7に表示する共に、車体Aが存在する位置を地図上に表示し、この地図上に車体Aが走行すべき経路を表示し、既に走行した経路を表示する等の処理を実現する。   The passenger car includes a navigation system 21 (see FIG. 4) that acquires position information including the position of the vehicle body A including the longitude and latitude of the earth by receiving radio signals from a plurality of GPS satellites. . The navigation system 21 displays a map of an area corresponding to the acquired position information on the monitor 7 and also displays a position where the vehicle body A exists on the map, and a route on which the vehicle body A should travel is displayed on the map. Processing such as displaying and displaying a route already traveled is realized.

図1及び図4に示すように、この乗用車では、前述したフロントカメラ16、リアカメラ17、左サイドカメラ18、右サイドカメラ19からの撮影画像を前記モニタ7に表示することが可能な周辺認知制御ユニット30を備えている。この周辺認知制御ユニット30は、マイクロプロセッサやDSP(digital signal processor)等を有し、所定のソフトウエアが実行される表示ECUとして構成されている(制御形態は後述する)。   As shown in FIG. 1 and FIG. 4, in this passenger car, peripheral recognition capable of displaying captured images from the front camera 16, rear camera 17, left side camera 18, and right side camera 19 described above on the monitor 7. A control unit 30 is provided. The peripheral recognition control unit 30 includes a microprocessor, a DSP (digital signal processor), and the like, and is configured as a display ECU that executes predetermined software (a control form will be described later).

モニタ7は、表示面にタッチパネルを備え、バックライトを備えた液晶式に構成されている。もちろん、プラズマ表示型のものやCRT型のものであっても良い。また、タッチパネルは、指などによる接触位置をロケーションデータとして出力することができる感圧式や静電式の指示入力装置である。モニタ7の下部にはモニタ7に表示すべき画像を人為的に設定するマニュアルスイッチ22が備えられ、この近傍にはスピーカ23を備えている。   The monitor 7 includes a touch panel on the display surface and is configured in a liquid crystal type including a backlight. Of course, a plasma display type or a CRT type may be used. The touch panel is a pressure-sensitive or electrostatic instruction input device that can output a contact position by a finger or the like as location data. A manual switch 22 for artificially setting an image to be displayed on the monitor 7 is provided below the monitor 7, and a speaker 23 is provided in the vicinity thereof.

この乗用車は一般的なものと同様にシフトレバー10の設定により前後進の何れかの方向への走行が実現する。アクセルペダル8の操作で走行速度の調節が実現し、ブレーキペダル9の操作で減速が実現し、ステアリングホイール5の操作により操舵輪として機能する前車輪1の操向作動が実現する。   The passenger car can travel in either forward or backward direction by setting the shift lever 10 in the same manner as a general vehicle. The travel speed is adjusted by operating the accelerator pedal 8, the deceleration is realized by operating the brake pedal 9, and the steering operation of the front wheel 1 that functions as a steering wheel is realized by operating the steering wheel 5.

運転座席3は、シートクッション3Aとシートバック3Bとを備えており、このシートクッション3Aとシートバック3Bとには、運転者D(図6を参照)が着座した際の圧力を検出する複数の荷重センサWSを備えている。この複数の荷重センサWSは、シートクッション3Aにおいて運転者Dの左右方向と前後方向とにおける荷重を計測できるように前部と後部と左部と右部との少なくとも4箇所に配置されている。シートバック3Bに対しても運転者Dの左右方向における荷重を計測できるように左部と右部との少なくとも2箇所に配置されている。   The driver's seat 3 includes a seat cushion 3A and a seat back 3B, and a plurality of pressures detected by the driver D (see FIG. 6) are detected on the seat cushion 3A and the seat back 3B. A load sensor WS is provided. The plurality of load sensors WS are arranged in at least four locations including a front portion, a rear portion, a left portion, and a right portion so that the load in the left-right direction and the front-rear direction of the driver D can be measured in the seat cushion 3A. The seat back 3B is also arranged at least at two locations, the left part and the right part, so that the load in the left-right direction of the driver D can be measured.

右ドア14の内壁面には、運転者Dとの距離を計測する複数の近接センサ24を備え、ステアリングホイール5には運転者Dの把持位置と把持力とを計測する複数の感圧センサ25を備えている。   The inner wall surface of the right door 14 includes a plurality of proximity sensors 24 that measure the distance to the driver D, and the steering wheel 5 includes a plurality of pressure-sensitive sensors 25 that measure the gripping position and gripping force of the driver D. It has.

近接センサ24は、静電容量型や、赤外線を用いた反射型の測距センサ等、非接触型のものが用いられ、ドア内面と運転者Dとの距離を計測する。感圧センサ25は感圧ゴムやストレインゲージ等で構成され、運転者Dがホイール部分を握る把持力と把持位置との情報を出力する。   The proximity sensor 24 is a non-contact type sensor such as a capacitance type sensor or a reflection type distance measuring sensor using infrared rays, and measures the distance between the door inner surface and the driver D. The pressure sensor 25 is composed of a pressure-sensitive rubber, a strain gauge, or the like, and outputs information on the gripping force and gripping position at which the driver D grips the wheel portion.

例えば、図7に示すように、駐車エリアPの近傍に車体Aを停止させて、駐車エリアPに車体を導入する際には、周辺認知制御ユニット30が運転座席3に着座する運転者Dの目視方向を推定する。この推定に基づいてフロントカメラ16、リアカメラ17、左サイドカメラ18、右サイドカメラ19の何れかからの撮影画像がモニタ7に表示され、運転者Dによる車体周辺の認知の支援を行える。この周辺認知制御ユニット30の制御構成、制御形態を以下に説明する。   For example, as shown in FIG. 7, when the vehicle body A is stopped in the vicinity of the parking area P and the vehicle body is introduced into the parking area P, the surrounding recognition control unit 30 of the driver D sitting on the driver seat 3 Estimate the viewing direction. Based on this estimation, a photographed image from any of the front camera 16, the rear camera 17, the left side camera 18, and the right side camera 19 is displayed on the monitor 7, so that the driver D can assist in recognition of the periphery of the vehicle body. The control configuration and control form of the peripheral recognition control unit 30 will be described below.

〔制御構成〕
図4に示すようにモニタ7に画像を表示する制御系が構成されている。この制御系では、周辺認知制御ユニット30に対して、ナビゲーションシステム21からのナビゲーション情報と、マニュアルスイッチ22の設定情報とが入力する情報取得系が形成されている。また、シフトレバー10のシフト位置を検出するシフト位置センサ10Sからのシフト位置情報と、フロントカメラ16・バックカメラ17・左サイドカメラ18・右サイドカメラ19夫々からの撮影画像とが入力する情報取得系が形成されている。更に、複数の荷重センサWSからの荷重情報と、複数の近接センサ24からの距離情報と、複数の感圧センサ25からの把持位置を含む圧力情報と、障害物検出手段として機能する複数の距離センサDSからの距離情報とが入力する情報取得系が形成されている。
[Control configuration]
As shown in FIG. 4, a control system for displaying an image on the monitor 7 is configured. In this control system, an information acquisition system in which navigation information from the navigation system 21 and setting information of the manual switch 22 are input to the peripheral recognition control unit 30 is formed. Further, information acquisition is performed in which shift position information from the shift position sensor 10S that detects the shift position of the shift lever 10 and captured images from the front camera 16, the back camera 17, the left side camera 18, and the right side camera 19 are input. A system is formed. Furthermore, load information from a plurality of load sensors WS, distance information from a plurality of proximity sensors 24, pressure information including gripping positions from a plurality of pressure sensors 25, and a plurality of distances functioning as obstacle detection means. An information acquisition system for inputting distance information from the sensor DS is formed.

周辺認知制御ユニット30は、複数の荷重センサWSで荷重情報を取得し、近接センサ24の計測情報を取得し、感圧センサ25の圧力情報を取得する。周辺認知制御ユニット30では、取得した情報から運転座席3に着座した運転者Dの姿勢を判別し、この姿勢から更に、運転者が目視する方向を推定し、運転者Dの目視方向と異なる方向をモニタ7に表示する制御を行う。   The peripheral recognition control unit 30 acquires load information with a plurality of load sensors WS, acquires measurement information of the proximity sensor 24, and acquires pressure information of the pressure-sensitive sensor 25. The surrounding recognition control unit 30 determines the posture of the driver D seated on the driver seat 3 from the acquired information, further estimates the direction viewed by the driver from this posture, and a direction different from the viewing direction of the driver D Is displayed on the monitor 7.

周辺認知制御ユニット30は、撮影画像取得手段31と、目視方向推定手段32と、障害物位置判定手段33と、表示対象設定手段34と、表示画像取得手段35と、表示領域抽出手段36と、表示対象決定手段37と、タイマ38と、表示画像出力モジュール39と、音声処理モジュール40とを備えている。   The peripheral recognition control unit 30 includes a captured image acquisition unit 31, a visual direction estimation unit 32, an obstacle position determination unit 33, a display target setting unit 34, a display image acquisition unit 35, a display area extraction unit 36, A display target determining unit 37, a timer 38, a display image output module 39, and an audio processing module 40 are provided.

撮影画像取得手段31は、フロントカメラ16・バックカメラ17・左サイドカメラ18・右サイドカメラ19夫々からの撮影画像を取得する。目視方向推定手段32は、複数の荷重センサWS・複数の近接センサ24・複数の感圧センサ25夫々からの情報の少なくとも1つを取得して運転者の目視方向を推定する。また、この目視方向推定手段32に対して推定の基準とする荷重分布や閾値等の情報を与える目視方向判定テーブル32Tを備えている。   The captured image acquisition means 31 acquires captured images from the front camera 16, the back camera 17, the left side camera 18, and the right side camera 19, respectively. The visual direction estimating means 32 acquires at least one of information from each of the plurality of load sensors WS, the plurality of proximity sensors 24, and the plurality of pressure sensors 25 to estimate the driver's visual direction. In addition, a visual direction determination table 32T is provided for giving information such as load distribution and threshold values as reference for estimation to the visual direction estimating means 32.

図面には示していないが、車体Aにはステアリングホイール5の回転操作角を取得する回転角センサが備えられ、目視方向推定手段32では、回転角センサで特定されるステアリングホイール5の回転操作角と、複数の感圧センサ25の圧力情報とに基づいて、運転者Dがホイール部分を握る把持位置と把持力とを特定する処理が行われる。   Although not shown in the drawing, the vehicle body A is provided with a rotation angle sensor for acquiring the rotation operation angle of the steering wheel 5, and the visual direction estimation means 32 has the rotation operation angle of the steering wheel 5 specified by the rotation angle sensor. Based on the pressure information of the plurality of pressure-sensitive sensors 25, a process for specifying the gripping position and gripping force at which the driver D grips the wheel portion is performed.

障害物位置判定手段33は、複数の距離センサDSからの距離情報に基づいて障害物の位置を判定する。表示対象設定手段34は、外部からの情報あるいは内部で生成した情報に基づいてモニタ7に表示すべき対象を設定する。表示画像取得手段35は表示すべき撮影画像等を取得する。表示領域抽出手段36は、撮影画像から障害物B(図7を参照)が存在する一部の領域を切り出す処理を行う。   The obstacle position determination means 33 determines the position of the obstacle based on distance information from the plurality of distance sensors DS. The display target setting unit 34 sets a target to be displayed on the monitor 7 based on information from the outside or information generated inside. The display image acquisition means 35 acquires a captured image to be displayed. The display area extracting unit 36 performs a process of cutting out a partial area where the obstacle B (see FIG. 7) exists from the captured image.

表示対象決定手段37は、表示画像取得手段35で取得した撮影画像又は表示領域抽出手段36で切り出した撮影画像等を表示する処理を行う。表示画像出力モジュール39はモニタ7に対して画像を出力する処理を行う。この表示画像出力モジュール39はモニタ7に画像の表示形態を設定する情報を取得するレイアウトテーブル39Tを備えている。音声処理モジュール40は障害物位置判定手段33で検出した障害物Bと車体Aとの距離が設定値未満まで減少するとスピーカ23から警報音を出力する。   The display target determining unit 37 performs processing for displaying a captured image acquired by the display image acquiring unit 35 or a captured image cut out by the display area extracting unit 36. The display image output module 39 performs processing for outputting an image to the monitor 7. The display image output module 39 includes a layout table 39T for acquiring information for setting an image display form on the monitor 7. The sound processing module 40 outputs an alarm sound from the speaker 23 when the distance between the obstacle B and the vehicle body A detected by the obstacle position determination means 33 decreases to a value less than the set value.

これら、撮影画像取得手段31と、目視方向推定手段32と、障害物位置判定手段33と、表示対象設定手段34と、表示画像取得手段35と、表示領域抽出手段36と、表示対象決定手段37とはソフトウエアで構成されるものであるが、夫々をハードウエアで構成して良く、また、夫々をハードウエアとソフトウエアとの組み合わせによって構成しても良い。   These captured image acquisition means 31, visual direction estimation means 32, obstacle position determination means 33, display target setting means 34, display image acquisition means 35, display area extraction means 36, and display target determination means 37. Is constituted by software, but each may be constituted by hardware, and each may be constituted by a combination of hardware and software.

周辺認知制御ユニット30は、車体Aの走行方向や走行速度に拘わらず運転者Dの目視方向に基づいてモニタ7に表示すべき画像の自動設定を実現するものであるが、この実施形態では図7に示すように車体Aを駐車エリアPの近傍に停車させた状態で車体Aを後進させる場合の表示制御を説明する。   The peripheral recognition control unit 30 realizes automatic setting of an image to be displayed on the monitor 7 based on the viewing direction of the driver D regardless of the traveling direction and traveling speed of the vehicle body A. Display control when the vehicle body A is moved backward while the vehicle body A is stopped near the parking area P as shown in FIG. 7 will be described.

〔表示制御〕
図5のフローチャートに示すように、シフト位置センサ10Sからの情報から車体Aの走行方向が後進でない(前進である)場合には、マニュアルスイッチ22の設定情報に基づいてナビゲーションシステム21から取得したナビゲーション情報又はフロントカメラ16・バックカメラ17・左サイドカメラ18・右サイドカメラ19の何れかから取得した撮影画像を表示対象にセットする(#101、#102ステップ)。
〔Display control〕
As shown in the flowchart of FIG. 5, when the traveling direction of the vehicle body A is not reverse (forward) from the information from the shift position sensor 10 </ b> S, the navigation acquired from the navigation system 21 based on the setting information of the manual switch 22. Information or a captured image acquired from any of the front camera 16, the back camera 17, the left side camera 18, and the right side camera 19 is set as a display target (steps # 101 and # 102).

また、シフト位置が後進(リバース)である場合には、リアカメラ17からの撮影画像が表示対象にセットされる。このセット状態で目視方向を推定し、この推定された目視方向が設定時間以上維持された場合にのみ、距離センサDSの距離情報を取得し、既に推定されている目視方向と異なる方向に存在する障害物B(図7を参照)が設定距離未満まで車体Aに接近したことを判定した場合にのみ、障害物Bを検出した領域の拡大画像を表示対象にセットする(#103〜#108ステップ)。   When the shift position is reverse (reverse), the captured image from the rear camera 17 is set as a display target. The viewing direction is estimated in this set state, and the distance information of the distance sensor DS is acquired only when the estimated viewing direction is maintained for a set time or more, and exists in a direction different from the estimated viewing direction. Only when it is determined that the obstacle B (see FIG. 7) has approached the vehicle body A to less than the set distance, an enlarged image of the area where the obstacle B is detected is set as a display target (steps # 103 to # 108). ).

次に、既に障害物Bが表示されている場合には目視方向の変更時間が設定値未満である場合には、障害物Bを表示対象にセットする。このようにセットされた表示対象はモニタ7に表示される(#109〜#111ステップ)。   Next, when the obstacle B is already displayed, if the change time in the viewing direction is less than the set value, the obstacle B is set as a display target. The display object set in this way is displayed on the monitor 7 (steps # 109 to # 111).

フローチャートには示していないが障害物Bを検出した場合には、音声処理モジュール40が生成した電子音がスピーカ23から出力されるので、運転者Dは音声によっても障害物Bの存在が把握できる。特に、音声処理モジュールは障害物Bを検出した際には必ず音声を出力するので、モニタ7に障害物Bが表示されない状況でも音声から障害物Bの存在を把握できる。   Although not shown in the flowchart, when the obstacle B is detected, the electronic sound generated by the voice processing module 40 is output from the speaker 23, so that the driver D can grasp the presence of the obstacle B also by voice. . In particular, since the voice processing module always outputs a voice when the obstacle B is detected, the presence of the obstacle B can be grasped from the voice even when the obstacle B is not displayed on the monitor 7.

つまり、#101、#102、#111ステップの処理として、車体Aを後進させない場合には、表示対象設定手段34がマニュアルスイッチ22の設定情報に基づいて表示対象をセットする。   That is, as a process of steps # 101, # 102, and # 111, when the vehicle body A is not moved backward, the display target setting unit 34 sets a display target based on the setting information of the manual switch 22.

具体的には、表示対象としてはナビゲーションシステム21が生成したナビゲーション画面や、複数のカメラでの撮影された撮影画像が表示対象に設定され、このセットに基づいて表示画像取得手段35が表示すべき撮影画像を取得し、表示画像出力モジュール39がモニタ7に表示する。このような表示が行われる際には、レイアウトテーブル39Tに基づいて表示位置を設定することも可能であり、例えば、モニタ7の表示面を分割し、複数のカメラでの撮影された撮影画像を分割された表示面に表示できる。   Specifically, navigation screens generated by the navigation system 21 and captured images taken by a plurality of cameras are set as display targets, and the display image acquisition means 35 should display based on this set. A captured image is acquired, and the display image output module 39 displays it on the monitor 7. When such display is performed, the display position can be set based on the layout table 39T. For example, the display surface of the monitor 7 is divided, and the captured images captured by a plurality of cameras are displayed. It can be displayed on the divided display surface.

また、#103ステップの処理として、車体Aを後進させる状況にある場合には、モニタ7に対してリアカメラ17で撮影された後方撮影領域Baの撮影画像を表示する基本的な設定が表示対象設定手段34において行われる。このようにセットされた状態で障害物Bが検出されない場合には、#111ステップにおいて、リアカメラ17の撮影画像を表示画像取得手段35が取得し、図8に示すように撮影画像がモニタ7に表示される。   In addition, as a process of step # 103, when the vehicle body A is in a situation of moving backward, the basic setting for displaying the captured image of the rear imaging region Ba captured by the rear camera 17 on the monitor 7 is the display target. This is performed in the setting means 34. If the obstacle B is not detected in the set state as described above, in step # 111, the captured image of the rear camera 17 is acquired by the display image acquiring means 35, and the captured image is displayed on the monitor 7 as shown in FIG. Is displayed.

尚、この図8のようにモニタ7に示される撮影画像は、ミラーによって後方を確認した際の像と整合させるため、左右が入れ替わった像となっている。また、モニタ7に表示される撮影画像には左右一対の車幅ラインYwと、5m(メートル)、3m、1mに対応した予想進路線Y1、Y2、Y3で成るガイドインジケータがスーパーインポーズの処理によって表示される。   Note that the photographed image shown on the monitor 7 as shown in FIG. 8 is an image in which the left and right are switched in order to match the image when the rear is confirmed by the mirror. The captured image displayed on the monitor 7 includes a pair of left and right vehicle width lines Yw and a guide indicator composed of predicted course lines Y1, Y2, and Y3 corresponding to 5 m (meters), 3 m, and 1 m. Is displayed.

特に、#104、#105ステップの処理として、#103ステップで車体後方の撮影画像が表示対象にセットされている状況において、荷重センサWS、近接センサ24、感圧センサ25の少なくとも1つからの情報に基づいて目視方向推定手段32が運転者Dの姿勢に基づいて目視方向を推定する。   In particular, as a process of steps # 104 and # 105, in a situation where a captured image of the rear of the vehicle body is set as a display object in step # 103, the load sensor WS, the proximity sensor 24, and the pressure-sensitive sensor 25 are at least one. Based on the information, the visual direction estimating means 32 estimates the visual direction based on the posture of the driver D.

この推定の一例を挙げると、車体Aを駐車エリアPに導入する際に、図6に示すように運転座席3に着座する運転者Dが右ドアミラー15を目視する場合や、直接的に車体Aに右後方を目視する場合には、運転者Dの体の重心が右側に移動し、体も傾斜する。このような理由から、荷重センサWSの荷重情報から体の姿勢の判別し、目視方向の推定が可能となる。これと同様に理由から、近接センサ24の検出値、及び、感圧センサ25の圧力情報から運転者Dの姿勢を判別し、目視方向の推定を実現している。   As an example of this estimation, when the vehicle body A is introduced into the parking area P, as shown in FIG. 6, the driver D sitting on the driver seat 3 looks at the right door mirror 15 or directly the vehicle body A. When the right rear is visually observed, the center of gravity of the body of the driver D moves to the right, and the body also tilts. For this reason, it is possible to determine the posture of the body from the load information of the load sensor WS and estimate the viewing direction. For the same reason, the posture of the driver D is discriminated from the detection value of the proximity sensor 24 and the pressure information of the pressure-sensitive sensor 25, and the visual direction is estimated.

目視方向判定テーブル32Tには、複数の荷重センサWSの荷重情報と目視方向との関係、複数の近接センサ24の計測値と目視方向との関係、複数の感圧センサ25の圧力情報と目視方向との関係夫々をデータ化して保存している。また、この目視方向判定テーブル32Tは、運転者Dが直接的に車外を目視した場合の目視方向だけを推定するだけではなく、運転者Dがミラーを介して車体Aの後方を目視した場合にも、車体Aの後方を目視していることを推定するように、ルームミラー11、左ドアミラー13、右ドアミラー15夫々の位置が記録されている。   The visual direction determination table 32T includes the relationship between the load information of the plurality of load sensors WS and the visual direction, the relationship between the measurement values of the plurality of proximity sensors 24 and the visual direction, and the pressure information and the visual direction of the multiple pressure sensors 25. Each of these relationships is stored as data. The visual direction determination table 32T not only estimates the visual direction when the driver D directly looks outside the vehicle, but also when the driver D visually observes the rear of the vehicle body A through a mirror. In addition, the positions of the room mirror 11, the left door mirror 13, and the right door mirror 15 are recorded so as to estimate that the rear side of the vehicle body A is viewed.

つまり、推定された目視方向がルームミラー11に向かっている場合には、運転者Dは車体Aの後方を目視して入ると見なす。これと同様に、推定された目視方向が左ドアミラー13に向かっている場合には、運転者Dは車体Aの左後方を目視して入ると見なす。また、推定された目視方向が右ドアミラー15に向かっている場合には、前述したように運転者Dは車体Aの右後方を目視して入ると見なす。   That is, when the estimated viewing direction is toward the rearview mirror 11, the driver D considers that the rear side of the vehicle body A is viewed. Similarly, when the estimated viewing direction is toward the left door mirror 13, it is considered that the driver D visually enters the left rear side of the vehicle body A. Further, when the estimated viewing direction is toward the right door mirror 15, the driver D considers that the right rear side of the vehicle body A is visually entered as described above.

これにより、目視方向判定テーブル32Tの情報に基づき複数の荷重センサWSの荷重情報と、複数の近接センサ24の距離情報と、複数の感圧センサ25の圧力情報との少なくとも1つに基づいて目視方向の推定を実現している。   Thereby, based on the information of the visual direction determination table 32T, the visual information is based on at least one of the load information of the plurality of load sensors WS, the distance information of the plurality of proximity sensors 24, and the pressure information of the plurality of pressure sensors 25. Direction estimation is realized.

特に荷重センサWSの荷重情報を基本として、近接センサ24の距離情報と、感圧センサ25の圧力情報とのうちの少なくとも1つの情報も併せて参照することで目視方向の推定の精度を高めることが可能である。   In particular, based on the load information of the load sensor WS, the accuracy of the estimation of the viewing direction can be improved by referring to at least one of the distance information of the proximity sensor 24 and the pressure information of the pressure sensor 25 together. Is possible.

#105ステップのように、目視方向推定手段32によって推定された目視方向が設定時間(数秒程度)以上維持されたことをタイマ38からの情報に基づいて判別した状況において、#106、#107ステップの処理では、障害物位置判定手段33が距離センサDSの距離情報を取得する。そして、目視方向と異なる方向の障害物Bが検出された場合には、障害物Bを検出した領域の撮影画像の一部の拡大画像が表示対象にセットされる。   In the situation where the visual direction estimated by the visual direction estimating means 32 is maintained based on the information from the timer 38 as in the step # 105 based on the information from the timer 38, the steps # 106 and # 107 In this process, the obstacle position determination means 33 acquires distance information of the distance sensor DS. When an obstacle B in a direction different from the viewing direction is detected, a partial enlarged image of the captured image in the area where the obstacle B is detected is set as a display target.

本実施の形態では撮影画像の一部を拡大表示する処理を示しているが、複数の車載カメラの1つからの撮影画像を拡大せずにモニタ7に表示するように表示対象設定手段34の処理形態を設定しても良い。   In the present embodiment, a process of enlarging and displaying a part of the captured image is shown, but the display target setting unit 34 displays the captured image from one of the plurality of in-vehicle cameras on the monitor 7 without enlarging. A processing form may be set.

具体的な状況として、図6に示されるように運転者Dが右ドアミラー15を目視している場合や、車体Aの右後方を目視する場合において、図7に示すように、車体Aの左前部において障害物Bが検出された場合には、図11に示す画像がモニタ7に表示される。つまり、撮影画像取得手段31においてフロントカメラ16から図9に示す撮影画像を取得しており、左サイドカメラ18から図10に示す撮影画像(モニタ7の左側に表示されたもの)を取得している。尚、同図には右サイドカメラ19も併せてモニタ7に並列的に表示した状態を示している   As a specific situation, when the driver D is viewing the right door mirror 15 as shown in FIG. 6 or when viewing the right rear side of the vehicle body A, as shown in FIG. 11 is displayed on the monitor 7 when the obstacle B is detected in the section. That is, the captured image acquisition means 31 acquires the captured image shown in FIG. 9 from the front camera 16, and acquires the captured image shown in FIG. 10 (displayed on the left side of the monitor 7) from the left side camera 18. Yes. In the figure, the right side camera 19 is also displayed in parallel on the monitor 7.

ここで、目視方向と異なる方向として、運転者Dが車体Aの右後方を目視している場合には、異なる方向として車体Aの左前部に存在する障害物Bを表示対象にセットした例を挙げたが、異なる方向として車体Aの右前部であっても、車体Aの左後部であっても、その位置に存在する障害物Bはモニタ7に表示されることになる。   Here, when the driver D is viewing the right rear side of the vehicle body A as a direction different from the viewing direction, an example in which the obstacle B existing at the left front portion of the vehicle body A is set as a display target as a different direction. As mentioned above, the obstacle B present at that position is displayed on the monitor 7 regardless of whether the vehicle A is in the right front portion or the left rear portion of the vehicle body A as different directions.

これらの撮影画像のうち、表示対象設定手段34が、図9、図10において破線で示す領域Eを表示対象にセットすることで、拡大画像が表示対象となる。このようにセットされた2つの拡大画像は#111ステップにおいて図11に示すようにモニタ7に並列的に表示される。このような並列的な表示はレイアウトテーブル39Tからのレイアウト情報に基づいて表示画像出力モジュール39が実現する。   Among these captured images, the display target setting unit 34 sets a region E indicated by a broken line in FIGS. 9 and 10 as a display target, so that an enlarged image becomes a display target. The two enlarged images set in this way are displayed in parallel on the monitor 7 as shown in FIG. Such parallel display is realized by the display image output module 39 based on the layout information from the layout table 39T.

尚、障害物Bは地上に設置された非移動物に限るものではなく、車体Aに接近するバイクや人物等の移動物を含むものである。   Obstacles B are not limited to non-moving objects installed on the ground, but include moving objects such as motorcycles and persons approaching the vehicle body A.

#109、#110ステップの処理は、障害物Bが表示対象に設定されている状況において、その障害物Bが既にモニタ7に表示されている場合には、目視方向の変更時間が設定値未満である場合、つまり、目視方向から視線をそらすことがあっても、そらす時間が短時間である場合には、障害物Bの拡大画像を表示対象にセットする状態が維持されることを意味している。   In steps # 109 and # 110, when the obstacle B is set as a display target and the obstacle B is already displayed on the monitor 7, the viewing direction change time is less than the set value. In other words, even if the line of sight may be diverted from the viewing direction, if the time for diverting is short, it means that the state where the enlarged image of the obstacle B is set as the display target is maintained. ing.

つまり、短時間だけモニタ7を見ることや、短時間だけルームミラー11を見ることがあっても障害物Bの表示は継続することになる。   That is, even if the monitor 7 is viewed for a short time or the room mirror 11 is viewed for a short time, the display of the obstacle B is continued.

この周辺認知制御ユニット30では、車体Aを後進させて駐車エリアPに導入する際には、障害物Bが検出されない限りモニタ7にはリアカメラ17からの撮影画像(図8を参照)が表示される。しかしながら、運転者Dの目視方向を推定し、推定された方向と異なる方向で障害物Bが検出された場合には、モニタ7に対して障害物Bを表示することにより、運転者Dに対して障害物Bの存在を視覚的に認識させ、接触を未然に回避できるものにしているのである。   In the surrounding recognition control unit 30, when the vehicle body A is moved backward and introduced into the parking area P, the monitor 7 displays a photographed image (see FIG. 8) from the rear camera 17 unless the obstacle B is detected. Is done. However, the visual direction of the driver D is estimated, and when the obstacle B is detected in a direction different from the estimated direction, the obstacle B is displayed on the monitor 7 so that the driver D is displayed. Thus, the presence of the obstacle B is visually recognized so that contact can be avoided in advance.

〔別実施の形態〕
本発明は、上記した実施の形態以外に以下のように構成しても良い。
[Another embodiment]
The present invention may be configured as follows in addition to the embodiment described above.

(a)表示対象設定手段は、障害物が検出されない状況において、運転者の目視方向と反対方向を表示するように単純な処理を行うように処理形態を設定しても良い。この場合、常に目視方向と反対方向を表示する表示形態でも良く、例えば、目視方向が後方である場合には、右前方や左前方等表示方向を予め設定できるように表示形態を設定しても良い。 (A) The display target setting means may set the processing form so as to perform a simple process so as to display a direction opposite to the driver's viewing direction in a situation where no obstacle is detected. In this case, a display form that always displays the direction opposite to the viewing direction may be used. For example, when the viewing direction is the rear, the display form may be set so that the display direction such as right front or left front can be set in advance. good.

(b)例えば、縦軸芯周りにパーン作動自在で、ズームレンズを有する車載カメラを備え、表示対象設定手段が障害物の存在する領域をモニタに表示する対象に設定した場合には、車載カメラをパーン作動させて撮影領域の中央を障害物が存在する領域に向け、ズームレンズで撮影対象を拡大するように焦点距離の設定を行うように構成する。このように構成することにより、多数の車載カメラを備えずとも広範な領域の対象を拡大表示することも可能となる。 (B) For example, when an on-vehicle camera having a zoom lens is freely movable around the vertical axis, and the display object setting means sets an area where an obstacle exists as an object to be displayed on the monitor, the on-vehicle camera Is configured so that the focal length is set so that the center of the imaging area is directed to the area where the obstacle exists and the imaging target is enlarged by the zoom lens. By configuring in this way, it is possible to enlarge and display a wide range of objects without providing a large number of in-vehicle cameras.

(c)障害物検出手段が、複数の車載カメラの撮影画像の画像処理により立体物を抽出し、その立体物を障害物として認識し、車体との距離を計測できるように構成されたものであっても良い。このように構成した場合には、画像処理だけで障害物との距離を把握できるため超音波センサ等を備える必要がなく、部位点数の低減に繋がる。 (C) The obstacle detection means is configured to extract a three-dimensional object by image processing of images taken by a plurality of in-vehicle cameras, recognize the three-dimensional object as an obstacle, and measure the distance from the vehicle body. There may be. In such a configuration, since the distance from the obstacle can be grasped only by image processing, it is not necessary to provide an ultrasonic sensor or the like, which leads to a reduction in the number of parts.

(d)車内のフロアー等に運転者の足(靴)からの圧力を検出する感圧センサを備え、この感圧センサの圧力情報も併せて目視方向を推定する処理に用いる。このように構成することにより、運転者の姿勢を明確に判定でき目視方向の推定精度を高めることが可能となる。 (D) A pressure sensor for detecting pressure from the driver's feet (shoes) is provided on the floor or the like in the vehicle, and pressure information of this pressure sensor is also used for processing for estimating the viewing direction. By comprising in this way, a driver | operator's attitude | position can be determined clearly and it becomes possible to raise the estimation precision of a visual direction.

本発明は、ナビゲーションシステムを備えず、車載カメラの撮影画像のみをモニタに表示するシンプルなシステムに利用することができる。   The present invention is not provided with a navigation system, and can be used for a simple system that displays only a photographed image of a vehicle-mounted camera on a monitor.

3 運転座席
5 ステアリングホイール
7 モニタ
14 ドア(右ドア)
16 車載カメラ(フロントカメラ)
17 車載カメラ(リアカメラ)
18 車載カメラ(左サイドカメラ)
19 車載カメラ(右サイドカメラ)
25 感圧センサ
32 目視方向推定手段
34 表示対象設定手段
36 表示領域抽出手段
D 運転者
DS 障害物検出手段(距離センサ)
WS 荷重センサ
3 Driver's seat 5 Steering wheel 7 Monitor 14 Door (right door)
16 In-vehicle camera (front camera)
17 In-vehicle camera (rear camera)
18 On-board camera (left side camera)
19 In-vehicle camera (right side camera)
25 Pressure-sensitive sensor 32 Visual direction estimation means 34 Display target setting means 36 Display area extraction means D Driver DS Obstacle detection means (distance sensor)
WS load sensor

Claims (7)

車両周辺を撮影する車載カメラと、この車載カメラで撮影された画像を表示するモニタとを備えると共に、
車両の運転座席に着座した運転者の姿勢から運転者が目視する方向を推定する目視方向推定手段と、
前記車載カメラで撮影された車体周辺の撮影画像のうち、前記目視方向推定手段に基づいて推定した目視方向と異なる方向となる車体周辺の撮影画像を前記モニタに表示する表示対象設定手段が備えられている周辺認知支援装置。
In-vehicle camera that captures the periphery of the vehicle, and a monitor that displays an image captured by the in-vehicle camera,
Visual direction estimating means for estimating the direction viewed by the driver from the posture of the driver seated on the driver's seat of the vehicle;
Display target setting means for displaying, on the monitor, a photographed image around the vehicle body in a direction different from the visual direction estimated based on the visual direction estimating means among the photographed images around the vehicle body photographed by the in-vehicle camera. Peripheral recognition support device.
車体外部に存在する障害物を検出する障害物検出手段を備え、前記表示対象設定手段は、前記目視方向と異なる方向において前記障害物検出手段で障害物が検出された領域の撮影画像を表示対象に設定する請求項1記載の周辺認知支援装置。   An obstacle detection unit for detecting an obstacle present outside the vehicle body, wherein the display target setting unit is a display target for a captured image of an area where the obstacle detection unit is detected in a direction different from the viewing direction; The peripheral recognition support apparatus according to claim 1, wherein 前記目視方向推定手段が、前記運転座席に着座した運転者の荷重情報を取得する荷重センサを備えている請求項1又は2記載の周辺認知支援装置。   The periphery recognition assistance apparatus of Claim 1 or 2 with which the said visual direction estimation means is provided with the load sensor which acquires the load information of the driver | operator who seated on the said driver's seat. 前記目視方向推定手段が、前記運転座席に着座した運転者と、運転者近傍のドアとの距離情報を取得するように前記ドアに形成された近接センサを備えている請求項1又は2記載の周辺認知支援装置。   The said visual direction estimation means is provided with the proximity sensor formed in the said door so that the distance information of the driver | operator seated on the said driver's seat and the door of a driver | operator's vicinity may be acquired. Peripheral recognition support device. 前記目視方向推定手段が、ステアリングホイールを運転者が握る把持位置と把持力とを圧力情報として取得する感圧センサを備えている請求項1又は2記載の周辺認知支援装置。   The periphery recognition assistance apparatus of Claim 1 or 2 with which the said visual direction estimation means is provided with the pressure sensor which acquires the holding position and holding force which a driver | operator holds a steering wheel as pressure information. 前記表示対象設定手段で設定された表示対象の撮影画像のうち、前記目視方向と異なる方向の画像を切り出して前記モニタに表示する表示領域抽出手段を備えている請求項1〜5のいずれか一項に記載の周辺認知支援装置。   The display area extraction means which cuts out and displays the image of the direction different from the said visual direction among the picked-up images of the display object set by the said display object setting means is displayed on the said monitor. Peripheral recognition support device according to item. 前記車載カメラが車体周辺の異なる領域を撮影するように複数備えられ、前記表示対象設定手段は、前記車載カメラで撮影された撮影画像のうち、前記目視方向と異なる方向の領域を撮影する車載カメラからの画像を選択してモニタに表示する請求項1〜5のいずれか一項に記載の周辺認知支援装置。   A plurality of the in-vehicle cameras are provided so as to shoot different areas around the vehicle body, and the display target setting unit shoots an area in a direction different from the viewing direction among the photographic images taken by the in-vehicle camera. The periphery recognition assistance apparatus as described in any one of Claims 1-5 which select the image from and display on a monitor.
JP2009144465A 2009-06-17 2009-06-17 Peripheral recognition support device Expired - Fee Related JP5408482B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009144465A JP5408482B2 (en) 2009-06-17 2009-06-17 Peripheral recognition support device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009144465A JP5408482B2 (en) 2009-06-17 2009-06-17 Peripheral recognition support device

Publications (2)

Publication Number Publication Date
JP2011000933A JP2011000933A (en) 2011-01-06
JP5408482B2 true JP5408482B2 (en) 2014-02-05

Family

ID=43559277

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009144465A Expired - Fee Related JP5408482B2 (en) 2009-06-17 2009-06-17 Peripheral recognition support device

Country Status (1)

Country Link
JP (1) JP5408482B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6072470B2 (en) * 2012-08-24 2017-02-01 京セラ株式会社 In-vehicle imaging system
JP6256525B2 (en) * 2016-05-23 2018-01-10 マツダ株式会社 Electronic mirror device
JP6575668B2 (en) * 2018-11-19 2019-09-18 株式会社デンソー Video processing device
JP7194890B2 (en) * 2019-01-08 2022-12-23 清 飯尾 car mirror device

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4114292B2 (en) * 1998-12-03 2008-07-09 アイシン・エィ・ダブリュ株式会社 Driving support device
JP3899502B2 (en) * 1999-07-12 2007-03-28 マツダ株式会社 Vehicle surrounding information notification device
JP4062219B2 (en) * 2003-09-03 2008-03-19 日産自動車株式会社 Crew protection device
JP2005145151A (en) * 2003-11-12 2005-06-09 Nissan Motor Co Ltd Vehicle circumference check auxiliary system and vehicle circumference graphic display method
JP4265992B2 (en) * 2004-04-30 2009-05-20 富士通テン株式会社 Driving assistance device
JP4760644B2 (en) * 2006-09-22 2011-08-31 三菱自動車工業株式会社 Pre-crash system

Also Published As

Publication number Publication date
JP2011000933A (en) 2011-01-06

Similar Documents

Publication Publication Date Title
JP4687160B2 (en) Perimeter monitoring device
KR101340738B1 (en) A parking assisting system
JP4992764B2 (en) Safety confirmation judgment device and driving teaching support system
JP5093602B2 (en) Peripheral recognition support device
EP1352782A2 (en) Parking assist system
JP2017154711A (en) Parking support device
US20110148613A1 (en) Device and method for approving automatic guidance of a vehicle
JP5017242B2 (en) Visual support device
JP5182137B2 (en) Vehicle periphery display device
US10632912B2 (en) Alarm device
JP2007221200A (en) Vehicle periphery monitoring system
JP2018144526A (en) Periphery monitoring device
JP4590962B2 (en) Vehicle periphery monitoring device
KR100766745B1 (en) Apparatus and method for a car parking using sensor
JP2008221906A (en) Damage part informing system for vehicle
JP2010143250A (en) Rear view recognizing apparatus
US20150197281A1 (en) Trailer backup assist system with lane marker detection
KR20170070457A (en) Vehicle and control method for the vehicle
JP4948338B2 (en) Inter-vehicle distance measuring device
JP5408482B2 (en) Peripheral recognition support device
JP2009129251A (en) Operation input apparatus
JP5003473B2 (en) Warning device
JP4957589B2 (en) Obstacle warning device, obstacle warning method, and computer program
JP5039605B2 (en) Parking assistance device
JP2008282235A (en) Driving support device, automobile equipped with driving support device and driving support method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120517

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130612

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130620

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130806

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131010

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131023

R151 Written notification of patent or utility model registration

Ref document number: 5408482

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees