JP2012073836A - Image display system, image processing apparatus, and image display method - Google Patents

Image display system, image processing apparatus, and image display method Download PDF

Info

Publication number
JP2012073836A
JP2012073836A JP2010218320A JP2010218320A JP2012073836A JP 2012073836 A JP2012073836 A JP 2012073836A JP 2010218320 A JP2010218320 A JP 2010218320A JP 2010218320 A JP2010218320 A JP 2010218320A JP 2012073836 A JP2012073836 A JP 2012073836A
Authority
JP
Japan
Prior art keywords
vehicle
image
display system
steering wheel
image display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2010218320A
Other languages
Japanese (ja)
Inventor
Yasuyoshi Sawada
康嘉 澤田
Takechika Kiritani
武親 桐谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2010218320A priority Critical patent/JP2012073836A/en
Publication of JP2012073836A publication Critical patent/JP2012073836A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Navigation (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Traffic Control Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technology that allows a user to recognize a position to pay attention to in an operation of parallel parking.SOLUTION: An overhead view image that overlooks a vehicle and a peripheral area of the vehicle is created, and a signal that indicates an operation of a steering wheel of the vehicle is input to an image display system. The image display system displays a front enlarged image obtained by enlarging an area including a front portion of the vehicle in the overhead view image according to the operation of parking a vehicle. This allows a user to recognize which position of the vehicle to pay attention to in parking operation according to the vehicle position.

Description

本発明は、車両における画像表示技術に関する。   The present invention relates to an image display technique in a vehicle.

従来、車両の駐車を行う場合、ユーザは目測した駐車スペースの広さに対して車両の駐車が可能であると判断した場合に、ユーザが目測した情報に基づいてステアリングホイールを操作して車両を駐車していた。また、車両の周辺をカメラで撮影した画像を表示装置に表示してユーザが車両を駐車する場合の運転操作のサポートを行う技術がある。なお、本発明と関連する技術を説明する資料としては特許文献1がある。   Conventionally, when a vehicle is parked, when the user determines that the vehicle can be parked with respect to the size of the observed parking space, the user operates the steering wheel on the basis of the information observed by the user. I was parked. Further, there is a technique for supporting driving operation when a user parks a vehicle by displaying an image obtained by photographing the periphery of the vehicle with a camera on a display device. Note that there is Patent Document 1 as a material for explaining the technology related to the present invention.

特開2009−93485号公報JP 2009-93485 A

しかしながら、ユーザの目測した情報に基づいて車両の駐車を行うと、車両と障害物との位置関係はユーザの感覚に基づいた不明瞭な状態で、ユーザが駐車を実行することとなり、ユーザの目測が誤っていた場合は車両を障害物に衝突させてしまう可能性があった。また、車両の周辺をカメラで撮影した画像を表示装置に表示する技術においても、駐車の際に表示装置に継続的に表示されている画像(例えば駐車動作を行っている際に継続的に表示されている車両後方の画像)だけでは、ユーザが車両を操作するごとに変化する車両の位置に応じて、車体のどの部分に障害物と衝突をしないかの注意を払って運転操作を行えばよいかがユーザにとって不明確となっていた。このような状態で、表示装置に表示された画像に基づいて車両を操作すると、車両を障害物に衝突させる可能性があった。   However, if the vehicle is parked based on the information observed by the user, the positional relationship between the vehicle and the obstacle is unclear based on the user's sense, and the user executes the parking. If it was wrong, the vehicle could collide with an obstacle. Also, in the technology for displaying on the display device an image obtained by photographing the periphery of the vehicle with a camera, an image continuously displayed on the display device during parking (for example, continuously displayed during a parking operation) If the user performs the driving operation by paying attention to which part of the vehicle body does not collide with the obstacle according to the position of the vehicle that changes every time the user operates the vehicle, It was unclear to the user whether it was good. In such a state, if the vehicle is operated based on the image displayed on the display device, the vehicle may collide with an obstacle.

本発明は、車両の駐車の運転操作に応じてユーザが注意を払うべき箇所を明確にすることを目的とする。   An object of this invention is to clarify the location where a user should pay attention according to the driving operation of the parking of a vehicle.

上記課題を解決するために、請求項1の発明は、車両に搭載される画像表示システムであって、前記車両に配置されたカメラで得られる撮影画像から、前記車両及び前記車両の周辺領域を俯瞰した俯瞰画像を生成する生成手段と、前記車両を駐車する場合に、前記車両がステアリングホイールの切返し位置に到達したことを検出する検出手段と、前記検出手段の情報から前記車両が前記切返し位置に到達したことに応答して、前記俯瞰画像中の前記車両の車体前方部を含む領域を拡大した前方拡大画像を表示する表示手段と、を備える。 In order to solve the above-described problems, an invention according to claim 1 is an image display system mounted on a vehicle, wherein the vehicle and a surrounding area of the vehicle are obtained from a captured image obtained by a camera disposed in the vehicle. A generating means for generating a bird's-eye view image, a detecting means for detecting that the vehicle has reached a turning position of a steering wheel when the vehicle is parked, and the vehicle is located at the turning position from information of the detecting means. Display means for displaying a front enlarged image obtained by enlarging a region including the front part of the vehicle body of the vehicle in the overhead image.

また、請求項2の発明は、請求項1に記載の画像表示システムにおいて、前記車両を駐車する場合にユーザが設定した前記車両の駐車すべき位置に応じて前記切返し位置を算出する算出手段をさらに備え、前記検出手段は、前記車両の位置情報から前記算出手段により算出された前記切返し位置への前記車両の到達を検出する。   According to a second aspect of the present invention, in the image display system according to the first aspect of the present invention, calculation means for calculating the turn-back position according to a position where the vehicle should be parked set by a user when the vehicle is parked. Further, the detection means detects arrival of the vehicle at the turn-back position calculated by the calculation means from position information of the vehicle.

また、請求項3の発明は、請求項1に記載の画像表示システムにおいて、前記車両のステアリングホイールの操作内容を示す信号を入力する入力手段をさらに備え、前記検出手段は前記ステアリングホイールの操作状態に応じて前記切返し位置への前記車両の到達を検出する。   Further, the invention of claim 3 is the image display system according to claim 1, further comprising input means for inputting a signal indicating an operation content of the steering wheel of the vehicle, wherein the detection means is an operation state of the steering wheel. The arrival of the vehicle at the turn-back position is detected accordingly.

また、請求項4の発明は、車両に搭載される画像表示システムであって、前記車両に配置されたカメラで得られる撮影画像から、前記車両及び前記車両の周辺領域を俯瞰した俯瞰画像を生成する生成手段と、前記車両のステアリングホイールの操作内容を示す信号を入力する入力手段と、前記車両を縦列駐車する場合における前記操作内容に応答して、前記俯瞰画像中の前記車両の車体前方部を含む領域を拡大した前方拡大画像を表示する表示手段と、を備える。   According to a fourth aspect of the present invention, there is provided an image display system mounted on a vehicle, wherein a bird's-eye view image in which the vehicle and a peripheral area of the vehicle are bird's-eye view is generated from a photographed image obtained by a camera disposed on the vehicle. A vehicle body front portion of the vehicle in the overhead view image in response to the operation content when the vehicle is parked in parallel. Display means for displaying a front enlarged image obtained by enlarging a region including.

また、請求項5の発明は、請求項4に記載の画像表示システムにおいて、前記表示手段は、前記ステアリングホイールが、前記車両が直進する中立位置から第1方向に操作された後に、前記第1方向とは逆方向の第2方向に操作され、前記ステアリングホイールが、前記中立位置、及び、前記中立位置近傍のいずれかの位置となったことに応答して、前記前方拡大画像を表示する。   Further, the invention according to claim 5 is the image display system according to claim 4, wherein the display means is configured such that after the steering wheel is operated in a first direction from a neutral position where the vehicle goes straight, the first means The front enlarged image is displayed in response to being operated in a second direction opposite to the direction, and the steering wheel has reached either the neutral position or a position near the neutral position.

また、請求項6の発明は、請求項4に記載の画像表示システムにおいて、前記表示手段は、前記ステアリングホイールが、前記車両が直進する中立位置から第1方向に操作された後に、前記中立位置を経由して前記第1方向とは逆方向の第2方向に操作されたことに応答して、前記前方拡大画像を表示する。   Further, the invention according to claim 6 is the image display system according to claim 4, wherein the display means is configured such that the steering wheel is operated in the first direction from the neutral position where the vehicle travels straight, and then the neutral position. The forward enlarged image is displayed in response to the operation in the second direction opposite to the first direction via the.

また、請求項7の発明は、請求項5または6に記載の画像表示システムにおいて、前記表示手段は、前記前方拡大画像が表示されている間に、前記ステアリングホイールが前記第2方向から前記第1方向へ操作された場合に、前記前方拡大画像から前記車両の後方を示す画像に切り替えて表示する。   The invention according to claim 7 is the image display system according to claim 5 or 6, wherein the display means moves the steering wheel from the second direction while the front enlarged image is displayed. When operated in one direction, the display is switched from the front enlarged image to an image showing the rear of the vehicle.

また、請求項8の発明は、請求項4乃至7のいずれかに記載の画像表示システムにおいて、前記表示手段は、前記前方拡大画像と前記俯瞰画像とを併せて表示する。   According to an eighth aspect of the present invention, in the image display system according to any one of the fourth to seventh aspects, the display unit displays the front enlarged image and the overhead image together.

また、請求項9の発明は、車両に搭載された表示装置に表示させる画像を生成する画像処理装置であって、前記車両に配置されたカメラで得られる撮影画像から、前記車両及び前記車両の周辺領域を仮想視点から俯瞰した俯瞰画像を生成する生成手段と、前記車両のステアリングホイールの操作内容を示す信号を入力する入力手段と、前記車両を縦列駐車する場合における前記操作内容に応答して、前記俯瞰画像中の前記車両の車体前方部を含む領域を拡大した前方拡大画像を前記表示装置に出力して表示させる出力手段と、を備える。   The invention according to claim 9 is an image processing device for generating an image to be displayed on a display device mounted on a vehicle, and from the captured image obtained by a camera arranged in the vehicle, the vehicle and the vehicle In response to the content of the operation when generating a bird's-eye view image of the surrounding area, an input means for inputting a signal indicating the operation content of the steering wheel of the vehicle, and the operation content when the vehicle is parked in parallel And an output means for outputting and displaying on the display device a front enlarged image obtained by enlarging a region including the front portion of the vehicle body of the vehicle in the overhead view image.

さらに、請求項10の発明は、車両に搭載される画像表示方法であって、前記車両に配置されたカメラで得られる撮影画像から、前記車両及び前記車両の周辺領域を仮想視点から俯瞰した俯瞰画像を生成する工程と、前記車両のステアリングホイールの操作内容を示す信号を入力する工程と、前記車両を縦列駐車する場合における前記操作内容に応答して、前記俯瞰画像中の前記車両の車体前方部を含む領域を拡大した前方拡大画像を表示する工程と、を備える。   Further, the invention of claim 10 is an image display method mounted on a vehicle, wherein the vehicle and the surrounding area of the vehicle are viewed from a virtual viewpoint from a captured image obtained by a camera arranged in the vehicle. A step of generating an image; a step of inputting a signal indicating an operation content of a steering wheel of the vehicle; and a front of a vehicle body of the vehicle in the overhead image in response to the operation content when the vehicle is parked in parallel Displaying a front enlarged image in which a region including the part is enlarged.

請求項1ないし10の発明によれば、検出手段の情報から車両が切返し位置に到達したことに応答して、俯瞰画像中の車両の車体前方部を含む領域を拡大した前方拡大画像を表示することで、ステアリングホイールを切返す位置でユーザが注意を払うべき車体の箇所を表示して、車体が他の物体に衝突することを防止できる。   According to the first to tenth aspects of the present invention, in response to the arrival of the vehicle at the turn-back position from the information of the detection means, a front enlarged image in which a region including the front part of the vehicle body in the overhead view image is enlarged is displayed. Thus, the location of the vehicle body that the user should pay attention to at the position where the steering wheel is turned back can be displayed, and the vehicle body can be prevented from colliding with other objects.

また、特に請求項2の発明によれば、検出手段は、車両の位置情報から算出手段により算出された切返し位置への車両の到達を検出することで、車両がステアリングホイールの切返し位置へ到達したことを精度よく検出でき、それに伴いユーザが注意を払うべき車体の箇所を表示して、車体が他の物体に衝突することを防止できる。   In particular, according to the invention of claim 2, the detecting means detects the arrival of the vehicle at the turning position calculated by the calculating means from the position information of the vehicle, so that the vehicle has reached the turning position of the steering wheel. This can be detected with high accuracy, and accordingly, the location of the vehicle body that the user should pay attention to can be displayed to prevent the vehicle body from colliding with other objects.

また、特に請求項3の発明によれば、検出手段はステアリングホイールの操作状態に応じて切返し位置への車両の到達を検出することで、ユーザのステアリングホイールの操作状態に伴い、ユーザが注意を払うべき車体の箇所を表示して、車体が他の物体に衝突することを防止できる。   In particular, according to the invention of claim 3, the detecting means detects the arrival of the vehicle at the turning-back position in accordance with the operation state of the steering wheel, so that the user is alerted according to the operation state of the user's steering wheel. By displaying the location of the vehicle body to be paid, the vehicle body can be prevented from colliding with other objects.

また、特に請求項4の発明によれば、車両を縦列駐車する場合における操作内容に応答して、俯瞰画像中の車両の車体前方部を含む領域を拡大した前方拡大画像を表示することで、縦列駐車における車両位置に応じて車体のどの部分に注意を払って操作すればよいかをユーザは把握できる。   Further, according to the invention of claim 4 in particular, in response to the operation content when the vehicles are parked in parallel, by displaying a front enlarged image in which the region including the vehicle body front portion of the vehicle in the overhead view image is enlarged, The user can grasp which part of the vehicle body should be operated with care according to the vehicle position in parallel parking.

また、特に請求項5の発明によれば、表示手段は、ステアリングホイールが、車両が直進する中立位置から第1方向に操作された後に、第1方向とは逆方向の第2方向に操作され、ステアリングホイールが、中立位置、及び、中立位置近傍のいずれかの位置となったことに応答して、前方拡大画像を表示することで、縦列駐車における車両位置に応じて車体前方部に注意を払って操作するタイミングの前にユーザは注意する対称の状況を確認できる。   In particular, according to the invention of claim 5, the display means is operated in the second direction opposite to the first direction after the steering wheel is operated in the first direction from the neutral position where the vehicle goes straight. In response to the steering wheel being in the neutral position or in the vicinity of the neutral position, a front enlarged image is displayed to pay attention to the front part of the vehicle body according to the vehicle position in parallel parking. The user can confirm the symmetric situation to be noted before the timing of paying and operating.

また、特に請求項6の発明によれば、表示手段は、ステアリングホイールが、車両が直進する中立位置から第1方向に操作された後に、中立位置を経由して第1方向とは逆方向の第2方向に操作されたことに応答して、前方拡大画像を表示することで、縦列駐車における車両位置に応じて車体前方部に注意を払って操作するタイミングをユーザは把握できる。   In particular, according to the invention of claim 6, the display means is arranged in the direction opposite to the first direction via the neutral position after the steering wheel is operated in the first direction from the neutral position where the vehicle goes straight. In response to the operation in the second direction, the front enlarged image is displayed, so that the user can grasp the timing for paying attention to the front part of the vehicle body according to the vehicle position in the parallel parking.

また、特に請求項7の発明によれば、表示手段は、前方拡大画像が表示されている間に、ステアリングホイールが第2方向から第1方向へ操作された場合に、前方拡大画像から車両の後方を示す画像に切り替えて表示することで、縦列駐車における車両位置に応じて車体前方部及び車両の後方に注意を払って操作するタイミングをユーザは把握できる。   In particular, according to the invention of claim 7, when the steering wheel is operated from the second direction to the first direction while the front enlarged image is displayed, the display means detects the vehicle from the front enlarged image. By switching to an image showing the rear and displaying it, the user can grasp the timing of paying attention to the front of the vehicle body and the rear of the vehicle according to the vehicle position in parallel parking.

さらに、特に請求項8の発明によれば、表示手段は、前記前方拡大画像と前記俯瞰画像とを併せて表示することで、縦列駐車における車両位置に応じてユーザが注意を払って操作すべき車体部分の画像と、車両全体を含む車両9の周辺領域の画像とを同時にユーザは確認できる。   Further, in particular, according to the invention of claim 8, the display means should display the front enlarged image and the overhead image together, and the user should operate with care according to the vehicle position in the parallel parking. The user can simultaneously confirm the image of the vehicle body portion and the image of the peripheral area of the vehicle 9 including the entire vehicle.

図1は、画像表示システムのブロック図である。FIG. 1 is a block diagram of an image display system. 図2は、車載カメラが車両に配置される位置を示す図である。FIG. 2 is a diagram illustrating a position where the in-vehicle camera is arranged in the vehicle. 図3は、合成画像を生成する手法を説明するための図である。FIG. 3 is a diagram for explaining a method of generating a composite image. 図4は、画像表示システムの動作モードの遷移を示す図である。FIG. 4 is a diagram illustrating transition of operation modes of the image display system. 図5は、設定前の駐車領域の画像を含む合成画像と車両の後方画像とを示す図である。FIG. 5 is a diagram illustrating a composite image including an image of a parking area before setting and a rear image of the vehicle. 図6は、設定後の駐車領域の画像を含む合成画像と車両の後方画像とを示す図である。FIG. 6 is a diagram illustrating a composite image including an image of a parking area after setting and a rear image of the vehicle. 図7は、縦列駐車途中の画像を表示する合成画像と車両の後方画像とを示す図である。FIG. 7 is a diagram illustrating a composite image that displays an image during parallel parking and a rear image of the vehicle. 図8は、縦列駐車途中の画像を表示する合成画像と前方拡大画像とを示す図である。FIG. 8 is a diagram illustrating a composite image that displays an image in the middle of parallel parking and a front enlarged image. 図9は、駐車領域内の車両の画像を表示する合成画像と車両の後方画像とを示す図である。FIG. 9 is a diagram illustrating a composite image that displays an image of the vehicle in the parking area and a rear image of the vehicle. 図10は、画像処理装置の処理フローチャートである。FIG. 10 is a process flowchart of the image processing apparatus. 図11は、画像処理装置の処理フローチャートである。FIG. 11 is a process flowchart of the image processing apparatus. 図12は、画像表示システムのブロック図である。FIG. 12 is a block diagram of the image display system. 13は、駐車領域の設定に伴う駐車開始位置の算出を示す図である。 FIG. 13 is a diagram illustrating calculation of a parking start position associated with setting of a parking area. 図14は、切返し位置が表示された状態を示す図である。FIG. 14 is a diagram illustrating a state in which the turn-back position is displayed. 図15は、車両がステアリングホイールの切返し位置に到達したことにより表示される前方拡大画像を示す図である。FIG. 15 is a diagram illustrating a front enlarged image displayed when the vehicle reaches the steering wheel turning position. 図16は、画像処理装置の処理フローチャートである。FIG. 16 is a process flowchart of the image processing apparatus. 図17は、画像処理装置の処理フローチャートである。FIG. 17 is a process flowchart of the image processing apparatus.

以下、図面を参照しつつ本発明の実施の形態について説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

<第1の実施の形態>
<1−1.システム構成>
図1は、画像表示システム120のブロック図である。この画像表示システム120は、車両(本実施の形態では、自動車)に搭載されるものであり、車両の周辺を撮影して画像を生成し、その生成した画像を車室内のナビゲーション装置20などの表示装置に出力する機能を有している。画像表示システム120のユーザ(代表的にはドライバ)は、この画像表示システム120を利用することにより、当該車両の周辺の様子をほぼリアルタイムに把握できるようになっている。
<First Embodiment>
<1-1. System configuration>
FIG. 1 is a block diagram of the image display system 120. The image display system 120 is mounted on a vehicle (in this embodiment, an automobile), generates an image by photographing the periphery of the vehicle, and uses the generated image as a navigation device 20 in the vehicle interior. It has a function of outputting to a display device. By using this image display system 120, a user (typically a driver) of the image display system 120 can grasp the state around the vehicle in almost real time.

図1に示すように、画像表示システム120は、車両の周辺を示す周辺画像を生成してナビゲーション装置20などの表示装置に画像情報を出力する画像処理装置100と、車両の周囲を撮影するカメラを備えている撮影部5とを主に備えている。   As shown in FIG. 1, an image display system 120 includes an image processing device 100 that generates a peripheral image indicating the periphery of a vehicle and outputs image information to a display device such as a navigation device 20, and a camera that captures the periphery of the vehicle. And a photographing unit 5 having the above.

ナビゲーション装置20は、ユーザに対しナビゲーション案内を行うものであり、タッチパネル機能を備えた液晶などのディスプレイ21と、ユーザが操作を行う操作部22と、装置全体を制御する制御部23とを備えている。ディスプレイ21の画面がユーザから視認可能なように、ナビゲーション装置20は車両のインストルメントパネルなどに設置される。ユーザからの各種の指示は、操作部22とタッチパネルとしてのディスプレイ21とによって受け付けられる。制御部23は、CPU、RAM及びROMなどを備えたコンピュータであり、所定のプログラムに従ってCPUが演算処理を行うことでナビゲーション機能を含む各種の機能が実現される。   The navigation device 20 provides navigation guidance to the user, and includes a display 21 such as a liquid crystal provided with a touch panel function, an operation unit 22 that is operated by the user, and a control unit 23 that controls the entire device. Yes. The navigation device 20 is installed on an instrument panel or the like of the vehicle so that the screen of the display 21 is visible from the user. Various instructions from the user are received by the operation unit 22 and the display 21 as a touch panel. The control unit 23 is a computer including a CPU, a RAM, a ROM, and the like, and various functions including a navigation function are realized by the CPU performing arithmetic processing according to a predetermined program.

ナビゲーション装置20は、画像処理装置100と通信可能に接続され、画像処理装置100との間で各種の制御信号の送受信や、画像処理装置100で生成された周辺画像の受信が可能となっている。ディスプレイ21には、制御部23の制御により、通常はナビゲーション装置20単体の機能に基づく画像が表示されるが、所定の条件下で画像処理装置100により生成された車両の周辺の様子を示す周辺画像や、車両9及び車両9の周辺領域を俯瞰した俯瞰画像が表示される。また、ディスプレイ21に表示される俯瞰画像は周辺領域をほぼリアルタイムに示すことになる。これにより、ナビゲーション装置20は、画像処理装置100で生成された周辺画像を受信して表示する表示装置としても機能する。   The navigation apparatus 20 is communicably connected to the image processing apparatus 100, and can transmit and receive various control signals to and from the image processing apparatus 100 and receive peripheral images generated by the image processing apparatus 100. . An image based on the function of the navigation device 20 alone is normally displayed on the display 21 under the control of the control unit 23, but the periphery showing the state of the periphery of the vehicle generated by the image processing device 100 under a predetermined condition An image and a bird's-eye view of the vehicle 9 and the surrounding area of the vehicle 9 are displayed. Moreover, the bird's-eye view image displayed on the display 21 shows the peripheral area almost in real time. Thereby, the navigation device 20 also functions as a display device that receives and displays a peripheral image generated by the image processing device 100.

画像処理装置100は、その本体部10が周辺画像を生成する機能を有するECU(Electronic Control Unit)であり、車両の所定の位置に配置される。画像処理装置100は、車両の周辺を撮影する撮影部5を備えており、この撮影部5で車両の周辺を撮影して得られる撮影画像に基づいて仮想視点からみた合成画像を生成する画像生成装置として機能する。これらの撮影部5が備える複数の車載カメラ51,52,53は、本体部10とは別の車両の適位置に配置されるが詳細は後述する。   The image processing apparatus 100 is an ECU (Electronic Control Unit) whose main body 10 has a function of generating a peripheral image, and is arranged at a predetermined position of the vehicle. The image processing apparatus 100 includes an imaging unit 5 that captures the periphery of the vehicle. The image generation unit 5 generates a composite image viewed from a virtual viewpoint based on a captured image obtained by capturing the periphery of the vehicle. Functions as a device. The plurality of in-vehicle cameras 51, 52, and 53 provided in these photographing units 5 are arranged at appropriate positions on a vehicle different from the main body unit 10, but will be described in detail later.

画像処理装置100の本体部10は、装置全体を制御する制御部1と、撮影部5で取得された撮影画像を処理して表示用の周辺画像を生成する画像生成部3と、ナビゲーション装置20との間で通信を行うナビ通信部42とを主に備えている。   The main body 10 of the image processing apparatus 100 includes a control unit 1 that controls the entire apparatus, an image generation unit 3 that generates a peripheral image for display by processing a captured image acquired by the imaging unit 5, and a navigation device 20. And a navigation communication unit 42 that communicates with each other.

ナビゲーション装置20の操作部22やディスプレイ21によって受け付けられたユーザからの各種の指示は、制御信号としてナビ通信部42によって受け付けられて制御部1に入力される。これにより、画像処理装置100は、ナビゲーション装置20に対するユーザの操作に応答した動作が可能となっている。   Various instructions from the user received by the operation unit 22 or the display 21 of the navigation device 20 are received by the navigation communication unit 42 as control signals and input to the control unit 1. As a result, the image processing apparatus 100 can operate in response to a user operation on the navigation apparatus 20.

また、画像処理装置100は、駐車支援ボタン45を備えている。この駐車支援ボタン45がユーザに操作されると、ユーザの指示を示す信号が制御部1に入力されて、後述するフロントモードM2(図4に示す。)の画像が表示される。なお、この駐車支援ボタン45はハードボタンとして画像処理装置100やナビゲーション装置20に設けられてもよい。また、駐車支援ボタン45は、ナビゲーション装置20のディスプレイ21にユーザが指などをディスプレイ21に接触させて操作するタッチパネルのボタンとして表示されるようにしてもよい。   Further, the image processing apparatus 100 includes a parking assistance button 45. When the parking assist button 45 is operated by the user, a signal indicating the user's instruction is input to the control unit 1, and an image of a front mode M2 (shown in FIG. 4) described later is displayed. The parking support button 45 may be provided as a hard button in the image processing apparatus 100 or the navigation apparatus 20. The parking assistance button 45 may be displayed on the display 21 of the navigation device 20 as a touch panel button that is operated by a user touching the display 21 with a finger or the like.

画像生成部3は、各種の画像処理が可能なハードウェア回路として構成されており、合成画像生成部31、画像範囲選択部32、及び、画像情報出力部33を主な機能として備えている。   The image generation unit 3 is configured as a hardware circuit capable of various image processing, and includes a composite image generation unit 31, an image range selection unit 32, and an image information output unit 33 as main functions.

合成画像生成部31は、撮影部5の複数の車載カメラ51,52,53で取得された複数の撮影画像に基づいて、車両の周辺の任意の仮想視点からみた合成画像を生成する。合成画像生成部31が仮想視点からみた合成画像を生成する手法については後述する。   The composite image generation unit 31 generates a composite image viewed from an arbitrary virtual viewpoint around the vehicle based on the plurality of captured images acquired by the plurality of in-vehicle cameras 51, 52, and 53 of the photographing unit 5. A method in which the composite image generation unit 31 generates a composite image viewed from a virtual viewpoint will be described later.

また、画像情報出力部33は合成画像生成部31において生成された合成画像情報をナビゲーション装置20へ出力する。これにより、車両の周辺を示す周辺画像がナビゲーション装置20のディスプレイ21に表示されることになる。   Further, the image information output unit 33 outputs the composite image information generated by the composite image generation unit 31 to the navigation device 20. As a result, a peripheral image showing the periphery of the vehicle is displayed on the display 21 of the navigation device 20.

制御部1は、CPU、RAM及びROMなどを備えたコンピュータであり、所定のプログラムに従ってCPUが演算処理を行うことで各種の制御機能が実現される。図中に示す画像制御部11は、このようにして実現される制御部1の機能のうちの一部を示している。   The control unit 1 is a computer including a CPU, a RAM, a ROM, and the like, and various control functions are realized by the CPU performing arithmetic processing according to a predetermined program. An image control unit 11 shown in the drawing shows a part of the functions of the control unit 1 realized in this way.

画像制御部11は、画像生成部3によって実行される画像処理を制御するものである。例えば、画像制御部11は、合成画像生成部31が生成する合成画像の生成に必要な各種パラメータなどを指示する。また、画像範囲選択部32がサイドカメラ53により撮影した画像の所定範囲を選択するための指示を車種ごとのパラメータの情報に基づいて行う。   The image control unit 11 controls image processing executed by the image generation unit 3. For example, the image control unit 11 instructs various parameters necessary for generating a composite image generated by the composite image generation unit 31. In addition, the image range selection unit 32 issues an instruction for selecting a predetermined range of an image captured by the side camera 53 based on parameter information for each vehicle type.

また、画像制御部11は、後述する縦列駐車ボタン202(図4に示す。)のユーザの操作に応答して、生成された合成画像中に後述する駐車領域RF11(図5に示す。)をナビゲーション装置20に出力してディスプレイ21に表示させるための制御を行う。   In addition, the image control unit 11 responds to a user operation of a parallel parking button 202 (shown in FIG. 4) described later, and a parking area RF11 (shown in FIG. 5) described later in the generated composite image. Control for outputting to the navigation device 20 and displaying on the display 21 is performed.

さらに、画像制御部11は、後述する車両9のステアリングホイール91のユーザの操作内容を示す信号が制御部1に入力されると、その操作内容に応答して生成された合成画像(俯瞰画像中の車両9の車体前方部を含む領域を拡大した前方拡大画像(図8に示すCQ3a。)をナビゲーション装置20に出力してディスプレイ21に表示させる制御を行う。これにより、縦列駐車における車両位置に応じて車体のどの部分に注意を払って操作すればよいかをユーザは把握できる。   Furthermore, when a signal indicating a user operation content of a steering wheel 91 of the vehicle 9 described later is input to the control unit 1, the image control unit 11 generates a composite image (in the overhead view image) generated in response to the operation content. The vehicle 9 is controlled to output a front enlarged image (CQ3a shown in FIG. 8) in which the region including the front portion of the vehicle 9 is enlarged and displayed on the display 21. Thus, the vehicle position in the parallel parking is determined. Accordingly, the user can grasp which part of the vehicle body should be operated with care.

また、画像処理装置100の本体部10は、不揮発性メモリ40、カード読取部44、及び、信号入力部41をさらに備えており、これらは制御部1に接続されている。   The main body 10 of the image processing apparatus 100 further includes a nonvolatile memory 40, a card reading unit 44, and a signal input unit 41, which are connected to the control unit 1.

不揮発性メモリ40は、電源オフ時においても記憶内容を維持可能なフラッシュメモリなどで構成されている。不揮発性メモリ40には、車種別データ4aが記憶されている。車種別データ4aは、合成画像生成部31が合成画像を生成する際に必要となる車両の種別に応じたデータなどである。また、縦列駐車モードで表示させる駐車領域のデータやユーザのステアリングホイール91の操作内容に応答して表示される画像データのパラメータなども記憶されている。   The nonvolatile memory 40 is configured by a flash memory or the like that can maintain stored contents even when the power is turned off. The nonvolatile memory 40 stores vehicle type data 4a. The vehicle type data 4a is data corresponding to the type of vehicle required when the composite image generation unit 31 generates a composite image. Also stored are parking area data to be displayed in the parallel parking mode, image data parameters displayed in response to the user's operation of the steering wheel 91, and the like.

カード読取部44は、可搬性の記録媒体であるメモリカードMCの読み取りを行う。カード読取部44は、メモリカードMCの着脱が可能なカードスロットを備えており、そのカードスロットに装着されたメモリカードMCに記録されたデータを読み取る。カード読取部44で読み取られたデータは、制御部1に入力される。   The card reading unit 44 reads a memory card MC that is a portable recording medium. The card reading unit 44 includes a card slot in which the memory card MC can be attached and detached, and reads data recorded on the memory card MC installed in the card slot. Data read by the card reading unit 44 is input to the control unit 1.

メモリカードMCは、種々のデータを記憶可能なフラッシュメモリなどで構成されており、画像処理装置100はメモリカードMCに記憶された種々のデータを利用できる。例えば、メモリカードMCにプログラムを記憶させ、これを読み出すことで、制御部1の機能を実現するプログラム(ファームウェア)を更新することが可能である。また、メモリカードMCに不揮発性メモリ40に記憶された車種別データ4aとは異なる種別の車両に応じた車種別データを記憶させ、これを読み出して不揮発性メモリ40に記憶させることで、画像表示システム120を異なる種別の車両に対応させることも可能である。   The memory card MC is configured by a flash memory or the like capable of storing various data, and the image processing apparatus 100 can use various data stored in the memory card MC. For example, a program (firmware) that realizes the function of the control unit 1 can be updated by storing a program in the memory card MC and reading the program. Further, the vehicle type data corresponding to the vehicle of a type different from the vehicle type data 4a stored in the nonvolatile memory 40 is stored in the memory card MC, and this is read out and stored in the nonvolatile memory 40, thereby displaying an image. It is also possible for the system 120 to correspond to different types of vehicles.

また、信号入力部41は、車両に設けられた各種装置からの信号を入力する。この信号入力部41を介して、画像表示システム120の外部からの信号が制御部1に入力される。具体的には、シフトセンサ81、車速センサ82、方向指示器83、及び、操舵角センサ84などから、各種情報を示す信号が制御部1に入力される。   Moreover, the signal input part 41 inputs the signal from the various apparatuses provided in the vehicle. A signal from the outside of the image display system 120 is input to the control unit 1 via the signal input unit 41. Specifically, signals indicating various information are input to the control unit 1 from the shift sensor 81, the vehicle speed sensor 82, the direction indicator 83, the steering angle sensor 84, and the like.

シフトセンサ81からは、車両9の変速装置のシフトレバーの操作の位置、すなわち、”P(駐車)”,”D(前進)”,”N(中立)”,”R(後退)”などのシフトポジションが入力される。車速センサ82からは、その時点の車両9の走行速度(km/h)が入力される。   From the shift sensor 81, the operation position of the shift lever of the transmission of the vehicle 9, ie, “P (parking)”, “D (forward)”, “N (neutral)”, “R (reverse)”, etc. The shift position is input. From the vehicle speed sensor 82, the traveling speed (km / h) of the vehicle 9 at that time is input.

方向指示器83からは、ウインカースイッチの操作に基づく方向指示、すなわち、車両のドライバが意図する方向指示を示すターン信号が入力される。ウインカースイッチが操作されたときはターン信号が発生し、ターン信号はその操作された方向(左方向あるいは右方向)を示すことになる。ウインカースイッチが中立位置となったときは、ターン信号はオフとなる。   From the direction indicator 83, a turn signal indicating a direction instruction based on the operation of the turn signal switch, that is, a direction instruction intended by the driver of the vehicle is input. When the turn signal switch is operated, a turn signal is generated, and the turn signal indicates the operated direction (left direction or right direction). When the turn signal switch is in the neutral position, the turn signal is turned off.

操舵角センサ84は、ユーザが操作したステアリングホイール91の操作方向を制御部1に入力する。詳細には、操舵角センサ84は、ユーザが操作したステアリングホイール91の回転方向、回転角度、及び、回転速度を信号入力部41を介して制御部1に入力する。なお、操舵角センサ84の信号は車両本体を制御する制御部へも入力される。そして、操舵角センサ84の入力信号と車速センサ82から車両本体を制御する制御部へ入力された信号に基づいて、車両9を操舵する前輪(図8に示す前輪401。)の操舵角と操舵速度が算出され、この算出された値に基づいて車両9の制御が行われる。   The steering angle sensor 84 inputs the operation direction of the steering wheel 91 operated by the user to the control unit 1. Specifically, the steering angle sensor 84 inputs the rotation direction, rotation angle, and rotation speed of the steering wheel 91 operated by the user to the control unit 1 via the signal input unit 41. The signal from the steering angle sensor 84 is also input to a control unit that controls the vehicle body. Then, based on the input signal of the steering angle sensor 84 and the signal input from the vehicle speed sensor 82 to the control unit that controls the vehicle main body, the steering angle and steering of the front wheel (front wheel 401 shown in FIG. 8) that steers the vehicle 9. The speed is calculated, and the vehicle 9 is controlled based on the calculated value.

<1−2.撮影部>
次に、画像処理装置100の撮影部5について詳細に説明する。撮影部5は、制御部1に電気的に接続され、制御部1からの信号に基づいて動作する。
<1-2. Shooting Department>
Next, the photographing unit 5 of the image processing apparatus 100 will be described in detail. The photographing unit 5 is electrically connected to the control unit 1 and operates based on a signal from the control unit 1.

撮影部5は、車載カメラであるフロントカメラ51、バックカメラ52及びサイドカメラ53を備えている。これらの車載カメラ51,52,53はそれぞれ、CCDやCMOSなどの撮像素子を備えており電子的に画像を取得する。   The photographing unit 5 includes a front camera 51, a back camera 52, and a side camera 53 that are in-vehicle cameras. Each of these on-vehicle cameras 51, 52, and 53 includes an image sensor such as a CCD or a CMOS and electronically acquires an image.

図2は、車載カメラ51,52,53が車両9に配置される位置を示す図である。なお、以下の説明においては、方向及び向きを示す際に、適宜、図中に示す3次元のXYZ直交座標を用いる。このXYZ軸は車両9に対して相対的に固定される。ここで、X軸方向は車両9の左右方向に沿い、Y軸方向は車両9の直進方向(前後方向)に沿い、Z軸方向は鉛直方向に沿っている。また、便宜上、+X側を車両9の右側、+Y側を車両9の後側、+Z側を上側とする。   FIG. 2 is a diagram illustrating positions where the in-vehicle cameras 51, 52, 53 are arranged on the vehicle 9. In the following description, the three-dimensional XYZ orthogonal coordinates shown in the figure are used as appropriate when indicating the direction and direction. The XYZ axes are fixed relative to the vehicle 9. Here, the X-axis direction is along the left-right direction of the vehicle 9, the Y-axis direction is along the straight traveling direction (front-rear direction) of the vehicle 9, and the Z-axis direction is along the vertical direction. For convenience, the + X side is the right side of the vehicle 9, the + Y side is the rear side of the vehicle 9, and the + Z side is the upper side.

フロントカメラ51は、車両9の前端にあるナンバープレート取付位置の近傍に設けられ、その光軸51aは車両9の直進方向(平面視でY軸方向の−Y側)に向けられている。バックカメラ52は、車両9の後端にあるナンバープレート取付位置の近傍に設けられ、その光軸52aは車両9の直進方向の逆方向(平面視でY軸方向の+Y側)に向けられている。また、サイドカメラ53は、左右のドアミラー93にそれぞれ設けられており、その光軸53aは車両9の左右方向(平面視でX軸方向)に沿って外部に向けられている。なお、フロントカメラ51やバックカメラ52の取り付け位置は、左右略中央であることが望ましいが、左右中央から左右方向に多少ずれた位置であってもよい。   The front camera 51 is provided in the vicinity of the license plate mounting position at the front end of the vehicle 9, and its optical axis 51 a is directed in the straight traveling direction of the vehicle 9 (−Y side in the Y-axis direction in plan view). The back camera 52 is provided in the vicinity of the license plate mounting position at the rear end of the vehicle 9, and its optical axis 52 a is directed in the reverse direction of the vehicle 9 in the straight traveling direction (+ Y side in the Y-axis direction in plan view). Yes. The side cameras 53 are provided on the left and right door mirrors 93, respectively, and the optical axis 53a is directed to the outside along the left-right direction of the vehicle 9 (X-axis direction in plan view). Note that the mounting position of the front camera 51 and the back camera 52 is preferably approximately the center in the left and right, but may be slightly shifted in the left and right directions from the center in the left and right.

これらの車載カメラ51,52,53のレンズとしては魚眼レンズなどが採用されており、車載カメラ51,52,53は180度以上の画角αを有している。このため、4つの車載カメラ51,52,53を利用することで、車両9の全周囲の撮影が可能となっている。   As the lenses of these in-vehicle cameras 51, 52, and 53, fish-eye lenses are employed, and the in-vehicle cameras 51, 52, and 53 have an angle of view α of 180 degrees or more. For this reason, it is possible to shoot the entire periphery of the vehicle 9 by using the four in-vehicle cameras 51, 52, and 53.

<1−3.画像変換処理>
次に、画像生成部3の合成画像生成部31が、撮影部5で得られた複数の撮影画像に基づいて車両9の周辺を任意の仮想視点からみた様子を示す合成画像を生成する手法について説明する。合成画像を生成する際には、不揮発性メモリ40に予め記憶された車種別データ4aが利用される。図3は、合成画像を生成する手法を説明するための図である。
<1-3. Image conversion processing>
Next, a method in which the composite image generation unit 31 of the image generation unit 3 generates a composite image that shows how the periphery of the vehicle 9 is viewed from an arbitrary virtual viewpoint based on a plurality of captured images obtained by the imaging unit 5. explain. When generating the composite image, the vehicle type data 4a stored in advance in the nonvolatile memory 40 is used. FIG. 3 is a diagram for explaining a method of generating a composite image.

撮影部5のフロントカメラ51、バックカメラ52及びサイドカメラ53で同時に撮影が行われると、車両9の前方、後方、左側方、及び、右側方をそれぞれ示す4つの撮影画像P1〜P4が取得される。すなわち、撮影部5で取得される4つの撮影画像P1〜P4には、撮影時点の車両9の全周囲を示す情報が含まれていることになる。   When the front camera 51, the back camera 52, and the side camera 53 of the photographing unit 5 are simultaneously photographed, four photographed images P1 to P4 that respectively indicate the front, rear, left side, and right side of the vehicle 9 are acquired. The That is, the four captured images P1 to P4 acquired by the imaging unit 5 include information indicating the entire periphery of the vehicle 9 at the time of shooting.

次に、4つの撮影画像P1〜P4の各画素が、仮想的な三次元空間における立体曲面SPに投影される。立体曲面SPは、例えば略半球状(お椀形状)をしており、その中心部分(お椀の底部分)が車両9が存在する位置として定められている。撮影画像P1〜P4に含まれる各画素の位置と、この立体曲面SPの各画素の位置とは予め対応関係が定められている。このため、立体曲面SPの各画素の値は、この対応関係と撮影画像P1〜P4に含まれる各画素の値とに基づいて決定できる。   Next, each pixel of the four captured images P1 to P4 is projected onto a three-dimensional curved surface SP in a virtual three-dimensional space. The three-dimensional curved surface SP has, for example, a substantially hemispherical shape (a bowl shape), and a center portion (a bottom portion of the bowl) is determined as a position where the vehicle 9 exists. The correspondence between the positions of the pixels included in the captured images P1 to P4 and the positions of the pixels of the solid curved surface SP is determined in advance. For this reason, the value of each pixel of the solid curved surface SP can be determined based on this correspondence and the value of each pixel included in the captured images P1 to P4.

撮影画像P1〜P4の各画素の位置と立体曲面SPの各画素の位置との対応関係は、車両9における4つの車載カメラ51,52,53の配置(相互間距離、地上高さ、光軸角度等)に依存する。このため、この対応関係を示すテーブルデータが、不揮発性メモリ40に記憶された車種別データ4aに含まれている。   The correspondence between the positions of the pixels of the captured images P1 to P4 and the positions of the pixels of the three-dimensional curved surface SP is determined by the arrangement of the four on-vehicle cameras 51, 52, and 53 in the vehicle 9 (the distance between each other, the ground height, the optical axis Angle). For this reason, the table data indicating this correspondence is included in the vehicle type data 4 a stored in the nonvolatile memory 40.

また、車種別データ4aに含まれる車体の形状やサイズを示すポリゴンデータが利用され、車両9の三次元形状を示すポリゴンモデルである車両像を仮想的に備えている。構成された車両像は、立体曲面SPが設定される三次元空間において、車両9の位置と定められた略半球状の中心部分に配置される。   Further, polygon data indicating the shape and size of the vehicle body included in the vehicle type data 4a is used, and a vehicle image that is a polygon model indicating the three-dimensional shape of the vehicle 9 is virtually provided. The configured vehicle image is arranged in a substantially hemispherical central portion determined as the position of the vehicle 9 in the three-dimensional space where the three-dimensional curved surface SP is set.

さらに、立体曲面SPが存在する三次元空間に対して、制御部1により仮想視点VPが設定される。仮想視点VPは、視点位置と視野方向とで規定され、この三次元空間における車両9の周辺に相当する任意の視点位置に任意の視野方向に向けて設定される。   Further, the virtual viewpoint VP is set by the control unit 1 for the three-dimensional space where the solid curved surface SP exists. The virtual viewpoint VP is defined by the viewpoint position and the visual field direction, and is set to an arbitrary visual field position corresponding to the periphery of the vehicle 9 in this three-dimensional space toward an arbitrary visual field direction.

そして、設定された仮想視点VPに応じて、立体曲面SPにおける必要な領域が画像として切り出される。仮想視点VPと、立体曲面SPにおける必要な領域との関係は予め定められており、テーブルデータとして不揮発性メモリ40等に予め記憶されている。一方で、設定された仮想視点VPに応じてポリゴンで構成された車両像に関してレンダリングがなされ、その結果となる二次元の車両像が、切り出された画像に対して重畳される。これにより、車両9及びその車両9の周辺を任意の仮想視点からみた様子を示す合成画像が生成されることになる。   Then, according to the set virtual viewpoint VP, a necessary area on the three-dimensional curved surface SP is cut out as an image. The relationship between the virtual viewpoint VP and a necessary area in the three-dimensional curved surface SP is determined in advance, and is stored in advance in the nonvolatile memory 40 or the like as table data. On the other hand, rendering is performed on the vehicle image composed of polygons according to the set virtual viewpoint VP, and the resulting two-dimensional vehicle image is superimposed on the cut out image. Thereby, the composite image which shows a mode that the vehicle 9 and the periphery of the vehicle 9 were seen from arbitrary virtual viewpoints will be produced | generated.

例えば、視点位置が車両9の位置の略中央の直上位置で、視野方向が略直下方向とした仮想視点VP1を設定した場合は、車両9の略直上から車両9を見下ろすように、車両9(実際には車両像)及び車両9の周辺の様子を示す合成画像CP1が生成される。また、図中に示すように、視点位置が車両9の位置の左後方で、視野方向が車両9における略前方とした仮想視点VP2を設定した場合は、車両9の左後方からその周辺全体を見渡すように、車両9(実際には車両像)及び車両9の周辺の様子を示す合成画像CP2が生成される。   For example, when the virtual viewpoint VP1 in which the viewpoint position is a position just above the center of the position of the vehicle 9 and the visual field direction is a direction immediately below the vehicle 9 is set, the vehicle 9 ( Actually, a composite image CP1 showing the vehicle image) and the surroundings of the vehicle 9 is generated. Further, as shown in the figure, when the virtual viewpoint VP2 in which the viewpoint position is the left rear of the position of the vehicle 9 and the visual field direction is substantially in front of the vehicle 9 is set, the entire periphery from the left rear of the vehicle 9 is set. As seen, a composite image CP <b> 2 is generated that shows the vehicle 9 (actually a vehicle image) and the surroundings of the vehicle 9.

なお、実際に合成画像を生成する場合においては、立体曲面SPの全ての画素の値を決定する必要はなく、設定された仮想視点VPに対応して必要となる領域の画素の値のみを撮影画像P1〜P4に基づいて決定することで、処理速度を向上できる。   In the case of actually generating a composite image, it is not necessary to determine the values of all the pixels of the three-dimensional curved surface SP, and only the values of the pixels in the area necessary corresponding to the set virtual viewpoint VP are photographed. By determining based on the images P1 to P4, the processing speed can be improved.

<1−4.動作モード>
次に、画像表示システム120の動作モードについて説明する。図4は、画像表示システム120の動作モードの遷移を示す図である。画像表示システム120は、ナビモードM1、フロントモードM2、バックモードM3、及び、縦列駐車モードM4の4つの動作モードを有している。これらの動作モードは、ユーザの操作や車両9の走行状態に応じて制御部1の制御により切り替えられるようになっている。
<1-4. Operation mode>
Next, the operation mode of the image display system 120 will be described. FIG. 4 is a diagram illustrating transition of operation modes of the image display system 120. The image display system 120 has four operation modes: a navigation mode M1, a front mode M2, a back mode M3, and a parallel parking mode M4. These operation modes can be switched by the control of the control unit 1 according to the user's operation and the running state of the vehicle 9.

ナビモードM1は、ナビゲーション装置20の機能により、ナビゲーション案内用の地図画像NPを主にディスプレイ21に表示する動作モードである。ナビモードM1では、画像処理装置100の機能が利用されず、ナビゲーション装置20単体の機能で各種の表示がなされる。   The navigation mode M <b> 1 is an operation mode in which a map image NP for navigation guidance is mainly displayed on the display 21 by the function of the navigation device 20. In the navigation mode M1, the functions of the image processing apparatus 100 are not used, and various displays are performed with the functions of the navigation apparatus 20 alone.

フロントモードM2、バックモードM3、及び、縦列駐車モードM4は、画像処理装置100の機能を利用して、撮影画像PP、合成画像CP、及び、合成画像CQ0などをディスプレイ21に表示して、車両9の周辺の状況をほぼリアルタイムでユーザに示す動作モードである。   In the front mode M2, the back mode M3, and the parallel parking mode M4, the captured image PP, the composite image CP, the composite image CQ0, and the like are displayed on the display 21 using the functions of the image processing apparatus 100. 9 is an operation mode in which the situation around 9 is shown to the user almost in real time.

また、フロントモードM2は、前進時に必要となる車両9の前方や側方を主に示す画像を表示する動作モードである。例えば、図中に示すように、車両9の直上の仮想視点からみた車両9及び車両9の周辺の様子を示す合成画像(俯瞰画像)CPと、フロントカメラ51での撮影により得られる撮影画像PPとが同時にディスプレイ21に表示される。この合成画像CPの仮想視点の位置は、車両9の直上に限らず、ユーザの操作に応じて車両9の後方側などへ切り替えられるようになっていてもよい。さらに、フロントモードM2は、自車の中心に周囲2〜3mの範囲を俯瞰画像として表示したモードである。   Further, the front mode M2 is an operation mode for displaying an image mainly showing the front and side of the vehicle 9 that is required when moving forward. For example, as shown in the figure, a composite image (overhead image) CP showing a state of the vehicle 9 and the surroundings of the vehicle 9 viewed from a virtual viewpoint directly above the vehicle 9, and a captured image PP obtained by capturing with the front camera 51 Are simultaneously displayed on the display 21. The position of the virtual viewpoint of the composite image CP is not limited to the position directly above the vehicle 9, and may be switched to the rear side of the vehicle 9 or the like according to a user operation. Further, the front mode M2 is a mode in which a range of 2 to 3 m around the center of the host vehicle is displayed as an overhead image.

また、バックモードM3は、後退時に必要となる車両9の後方を主に示す画像を表示する動作モードである。例えば、図中に示すように、車両9の直上の仮想視点からみた車両9及び車両9の周辺の様子を示す合成画像(俯瞰画像)CPと、バックカメラ52での撮影により得られる撮影画像PPとが同時にディスプレイ21に表示される。この合成画像CPの仮想視点の位置は、車両9の直上に限らず、ユーザの操作に応じて車両9の前方側などへ切り替えられるようになっていてもよい。   Further, the back mode M3 is an operation mode for displaying an image mainly showing the rear of the vehicle 9 that is required when reversing. For example, as shown in the figure, a composite image (overhead image) CP showing a state of the vehicle 9 and the surroundings of the vehicle 9 viewed from a virtual viewpoint directly above the vehicle 9, and a captured image PP obtained by capturing with the back camera 52 Are simultaneously displayed on the display 21. The position of the virtual viewpoint of the composite image CP is not limited to the position immediately above the vehicle 9, and may be switched to the front side of the vehicle 9 or the like according to a user operation.

さらに、縦列駐車モードM4は、ユーザが車両9を縦列駐車する際にユーザの運転操作をサポートするモードである。例えば、図中に示すように、車両9の直上の仮想視点からみた車両9の周辺領域をほぼリアルタイムに示し、車両9の大きさに対応した広さを有する駐車領域RF11と車両9の前方に駐車している他車両19を表示する画像が合成画像俯瞰画像)CQ0として画像処理装置100は、ナビゲーション装置20出力してディスプレイ21に表示させる。   Furthermore, the parallel parking mode M4 is a mode that supports the user's driving operation when the user parks the vehicle 9 in parallel. For example, as shown in the figure, the surrounding area of the vehicle 9 viewed from the virtual viewpoint directly above the vehicle 9 is shown almost in real time, and a parking area RF11 having a size corresponding to the size of the vehicle 9 and the front of the vehicle 9 are shown. The image displaying the other vehicle 19 parked is a composite image overhead image) CQ0. The image processing apparatus 100 outputs the navigation apparatus 20 and displays it on the display 21.

また、縦列駐車モードM4は、車両9の後方に備えられたカメラ52で車両9の後方を撮影した後方画像BA0を合成画像CQ0と併せて画像処理装置100が出力して表示させる。   In the parallel parking mode M4, the image processing apparatus 100 outputs and displays the rear image BA0 obtained by photographing the rear of the vehicle 9 with the camera 52 provided behind the vehicle 9 together with the composite image CQ0.

縦列駐車モードM4は、フロントモードM2の縦列駐車ボタン202をユーザが操作することにより開始される。そして、縦列駐車モードM4では、フロントモードM2で表示されていた車両9と車両9の周辺の様子を示す合成画像俯瞰画像)CPに、車両9と車両9の大きさに対応した広さを有する駐車領域RF11の画像の表示が加わり、合成画像CQ0として画像処置装置100がディスプレイ21に出力して表示させる。なお、縦列駐車モードM4は、フロントモードM2から仮想視点の位置を上方の位置に移動させて自車と駐車領域RF11とがディスプレイ21の1画面内で表示されるようにしている。 また、フロントモードM2の縦列駐車ボタン202がユーザにより操作されると、画像処理装置100は、フロントモードM2で表示されていた車両9の前方の撮影画像PPからカメラ52により車両9の後方を撮影した後方画像BA0に切替えて、ディスプレイ21に表示させる。   The parallel parking mode M4 is started when the user operates the parallel parking button 202 in the front mode M2. In the parallel parking mode M4, the composite image overhead view image CP showing the vehicle 9 and the surroundings of the vehicle 9 displayed in the front mode M2 has a size corresponding to the size of the vehicle 9 and the vehicle 9. The display of the image of the parking area RF11 is added, and the image processing apparatus 100 outputs and displays the composite image CQ0 on the display 21. In the parallel parking mode M4, the position of the virtual viewpoint is moved to the upper position from the front mode M2, and the vehicle and the parking area RF11 are displayed on one screen of the display 21. When the parallel parking button 202 in the front mode M2 is operated by the user, the image processing apparatus 100 captures the rear of the vehicle 9 with the camera 52 from the captured image PP in front of the vehicle 9 displayed in the front mode M2. The rear image BA0 is switched to and displayed on the display 21.

各モードの遷移は、ナビモードM1において、ナビゲーション装置20のディスプレイ21に表示される駐車支援ボタン201をユーザが操作した場合、または、ユーザが操作部22を操作した場合など、所定操作によりフロントモードM2に切り替えられる。また、フロントモードM2において、ユーザの操作部22による操作などの所定操作により、ナビモードM1に切り替えられる。なお、ナビモードM1とフロントモードM2とは、車速センサ82から入力される走行速度に応じて切り替えてもよい。   The transition of each mode is performed in the front mode by a predetermined operation such as when the user operates the parking support button 201 displayed on the display 21 of the navigation device 20 or when the user operates the operation unit 22 in the navigation mode M1. Switch to M2. Further, in the front mode M2, the navigation mode M1 is switched by a predetermined operation such as an operation by the operation unit 22 of the user. The navigation mode M1 and the front mode M2 may be switched according to the traveling speed input from the vehicle speed sensor 82.

また、ナビモードM1あるいはフロントモードM2の場合に、シフトセンサ81から入力されるシフトポジションが”R(後退)”となったときは、バックモードM3に切り替えられる。すなわち、シフトポジションが”R(後退)”の場合は、車両9は後退する状態であるため、車両9の後方を主に示すバックモードM3に切り替えられる。また、バックモードM3の場合に、シフトポジションが”R(後退)”以外となったときは、バックモードM3に切り替えられる直前の動作モードに戻ることになる。なお、バックモードM3において、ディスプレイ21に表示される駐車支援ボタン201をユーザが操作した場合は、フロントモードM2となる。   In the navigation mode M1 or the front mode M2, when the shift position input from the shift sensor 81 is “R (reverse)”, the mode is switched to the back mode M3. That is, when the shift position is “R (reverse)”, the vehicle 9 is in a reverse state, and therefore, the back mode M3 that mainly indicates the rear of the vehicle 9 is switched. Further, in the case of the back mode M3, when the shift position is other than “R (reverse)”, the operation mode immediately before switching to the back mode M3 is returned. In the back mode M3, when the user operates the parking assistance button 201 displayed on the display 21, the front mode M2 is set.

そして、フロントモードM2において、ディスプレイ21に表示された縦列駐車ボタン202をユーザが操作すると、縦列駐車モードM4の画像が画像処理装置100から出力され、ディスプレイ21に表示される。また、縦列駐車モードM4においてディスプレイ21の戻るボタン203をユーザが操作した場合は、フロントモードM2に遷移する。   When the user operates the parallel parking button 202 displayed on the display 21 in the front mode M2, an image in the parallel parking mode M4 is output from the image processing apparatus 100 and displayed on the display 21. Further, when the user operates the return button 203 of the display 21 in the parallel parking mode M4, the mode is changed to the front mode M2.

<1−5縦列駐車モード>
以下では、縦列駐車モードM4で画像処理装置100からナビゲーション装置20に出力され、ディスプレイ21に表示される合成画像の詳細について図5〜図9を用いて説明する。図5は、設定前の駐車領域RF11の画像を含む合成画像CQ0(以下、「画像CQ0」ともいう。)と車両9の後方画像BA0以下、「画像BA0」ともいう。)とを示す図である。フロントモードM2で縦列駐車ボタン202がユーザにより操作されると、縦列駐車モードM4の画像CQ0と画像BA0とが画像処理装置100からナビゲーション装置20に出力され、ディスプレイ21に表示される。
図5に示す画像CQ0は、略中心に車両9の画像が表示されている俯瞰画像であり、車両の周辺領域を略リアルタイムに示している。そして、車両9の左側に駐車領域RF11が表示されている。この駐車領域RF11は、車両9が縦列駐車を行うのに必要なスペースであり、車両9の進行方向の長さが車両9の全長の約1.5倍で、車幅方向の長さが車両9の車幅の約1.2倍の広さを備えている略長方形の領域である。駐車領域RF11は縦列駐車モードM4の開始に伴い、画像CQ0の所定の位置に表示され、後述するようにユーザの操作により、駐車スペースの位置に設定される。また、図5に示す画像BA0は車両9に備えられたバックカメラ52から撮影された画像であり、車両9の後方の駐車領域RF11の一部分を含む画像が表示されている。
さらに、画像BA0の近傍には表示領域ガイド301が表示されている。この表示領域ガイド301は、画像BA0の画像が車両9に対してどの領域を撮影しているかを示したものであり、図5に示す表示領域ガイド301では車両9の後方領域を示している。このように表示されている画像が車両9からみてどの領域を撮影しているかを示すことで、ユーザは画像の撮影範囲を直感的に認識できる。
<1-5 parallel parking mode>
Below, the detail of the synthesized image output to the navigation apparatus 20 from the image processing apparatus 100 in the parallel parking mode M4 and displayed on the display 21 will be described with reference to FIGS. FIG. 5 also refers to a composite image CQ0 (hereinafter also referred to as “image CQ0”) including an image of the parking area RF11 before setting, a rear image BA0 of the vehicle 9, and “image BA0”. ). When the parallel parking button 202 is operated by the user in the front mode M2, the image CQ0 and the image BA0 in the parallel parking mode M4 are output from the image processing device 100 to the navigation device 20 and displayed on the display 21.
An image CQ0 shown in FIG. 5 is a bird's-eye view image in which an image of the vehicle 9 is displayed at substantially the center, and shows a peripheral area of the vehicle in substantially real time. A parking area RF11 is displayed on the left side of the vehicle 9. This parking area RF11 is a space necessary for the vehicle 9 to perform parallel parking, and the length of the vehicle 9 in the traveling direction is about 1.5 times the total length of the vehicle 9, and the length in the vehicle width direction is the vehicle. It is a substantially rectangular area having a width of about 1.2 times the width of 9 cars. The parking area RF11 is displayed at a predetermined position in the image CQ0 with the start of the parallel parking mode M4, and is set to the position of the parking space by the user's operation as described later. An image BA0 shown in FIG. 5 is an image taken from the back camera 52 provided in the vehicle 9, and an image including a part of the parking area RF11 behind the vehicle 9 is displayed.
Further, a display area guide 301 is displayed in the vicinity of the image BA0. The display area guide 301 indicates which area the image BA0 is imaged with respect to the vehicle 9, and the display area guide 301 shown in FIG. The user can intuitively recognize the shooting range of the image by indicating which area the image displayed in this way is taken from the vehicle 9.

図6は、設定後の駐車領域RF11の画像を含む合成画像CQ1(以下、「画像CQ1」ともいう。)と車両9の後方画像BA1(以下、「画像BA1」ともいう。)とを示す図である。車両9の左側には駐車領域RF11の画像が表示されている。この駐車領域RF11は、ユーザが指などをディスプレイ21に接触させたり、操作部22を用いて操作することにより、画像CQ1内の任意の位置に設定される。図6ではユーザは画像CQ1内の他車両19の後方である駐車スペースSA101以下、「スペースSA101」ともいう。)の領域に駐車領域RF11を移動させて、車両9を駐車させる位置を設定している。この設定により以後駐車領域RF11は路面に対して固定表示される。また、図5に示す画像BA1は車両9に備えられたバックカメラ52から撮影された画像であり、表示領域ガイド301は車両9の後方領域を示している。   FIG. 6 is a diagram showing a composite image CQ1 (hereinafter also referred to as “image CQ1”) including an image of the parking area RF11 after setting and a rear image BA1 of the vehicle 9 (hereinafter also referred to as “image BA1”). It is. On the left side of the vehicle 9, an image of the parking area RF11 is displayed. The parking area RF11 is set at an arbitrary position in the image CQ1 when the user touches the display 21 with the finger or operates it using the operation unit 22. In FIG. 6, the user is also referred to as a “space SA 101” below the parking space SA 101 behind the other vehicle 19 in the image CQ 1. ) Is set to a position where the vehicle 9 is parked. With this setting, the parking area RF11 is displayed fixedly on the road surface. An image BA1 shown in FIG. 5 is an image taken from the back camera 52 provided in the vehicle 9, and the display area guide 301 shows the rear area of the vehicle 9.

図7は、縦列駐車途中の画像を表示する合成画像CQ2以下、「画像CQ2」ともいう。)と車両9の画像BA2(以下、「画像BA2」ともいう。)とを示す図である。ユーザは駐車領域RF11をスペースSA101の領域に設定して、スペースSA101の位置に車両9を駐車させる動作を開始する。   FIG. 7 is also referred to as “image CQ2”, which is a composite image CQ2 or lower, which displays an image during parallel parking. ) And an image BA2 of the vehicle 9 (hereinafter also referred to as “image BA2”). The user sets the parking area RF11 to the area of the space SA101 and starts an operation of parking the vehicle 9 at the position of the space SA101.

縦列駐車を開始する場合、ユーザが駐車領域RF11を操作して駐車スペースとして設定したスペースSA101が、車両9の右側後方で車両9と略平行な位置となるよう車両9を移動させる。このとき車両9の右側の側面とスペースSA101との車幅方向の間隔とは約1mの間隔とする。そして、シフト位置がバックになり車両が後退するときにユーザは車両9が直進する中立位置から右方向へステアリングホイール91を操作し、車両9の後端部がスペースSA101側へ所定角度傾いた後にステアリングホイール91を中立位置に戻した状態を図7の画像CQ2は示している。   When starting parallel parking, the user moves the vehicle 9 so that the space SA101 set as a parking space by operating the parking area RF11 is positioned substantially parallel to the vehicle 9 on the right rear side of the vehicle 9. At this time, the distance between the right side surface of the vehicle 9 and the space SA101 in the vehicle width direction is set to about 1 m. When the shift position becomes the back and the vehicle moves backward, the user operates the steering wheel 91 to the right from the neutral position where the vehicle 9 goes straight, and after the rear end of the vehicle 9 is inclined by a predetermined angle toward the space SA101 side. An image CQ2 in FIG. 7 shows a state in which the steering wheel 91 is returned to the neutral position.

図8は、縦列駐車途中の画像を表示する合成画像CQ3(「画像CQ3」ともいう。)と前方拡大画像CQ3a以下、「画像CQ3a」ともいう。)とを示す図である。図8ではユーザが車両9のステアリングホイール91を中立位置とした状態で車両9を後退させた後、ステアリングホイール91を中立位置から左方向に操作した状態を示している。そして、この操作内容に応答して俯瞰画像である画像CQ3中の車両9の車体前方部を含む領域を拡大した画像CQ3aを図7の画像BA2から切替えてディスプレイ21に表示させる。尚、前方拡大画像CQ3aは、以下のようにして作成される。即ち、合成画像CQ3の前方部を切り出して所定倍率に拡大することで前方拡大画像CQ3aが作成される。あるいは、仮想視点位置を画像CQ3の仮想視点位置に対し車両前部方向にかつ下方に移動させた新たな俯瞰画像を作成することで前方拡大画像CQ3aが作成される。   FIG. 8 is also referred to as a composite image CQ3 (also referred to as “image CQ3”) that displays an image in the middle of parallel parking, a front enlarged image CQ3a, and hereinafter referred to as “image CQ3a”. ). FIG. 8 shows a state in which the user operates the steering wheel 91 in the left direction from the neutral position after the vehicle 9 is moved backward while the steering wheel 91 of the vehicle 9 is in the neutral position. Then, in response to this operation content, an image CQ3a obtained by enlarging a region including the vehicle body front portion of the vehicle 9 in the image CQ3 which is an overhead image is switched from the image BA2 in FIG. The front enlarged image CQ3a is created as follows. That is, the front enlarged image CQ3a is created by cutting out the front portion of the composite image CQ3 and enlarging it to a predetermined magnification. Alternatively, the front enlarged image CQ3a is created by creating a new overhead image in which the virtual viewpoint position is moved in the vehicle front direction and downward with respect to the virtual viewpoint position of the image CQ3.

つまり、縦列駐車モードM4において、車両9のステアリングホイール91が、車両9が直進する中立位置から右方向に操作された後に中立位置を経由して右方向とは逆方向の左方向に操作されたことに応答して、画像処理装置100は画像CQ3aをディスプレイ21に表示させる。これにより、縦列駐車における車両位置に応じて車体前方部に注意を払って操作するタイミングをユーザは把握できる。尚、車両9の後退中に右方向に操作された状態から中立位置に戻った時点で画像CQ3aをディスプレイ21に表示させてもよい。即ち、車両9がステアリングの切り返しポイントに到達したことを検出したときに画像CQ3aを表示させる。   That is, in the parallel parking mode M4, the steering wheel 91 of the vehicle 9 is operated rightward from the neutral position where the vehicle 9 goes straight, and then operated in the left direction opposite to the right direction via the neutral position. In response to this, the image processing apparatus 100 displays the image CQ3a on the display 21. Thereby, the user can grasp | ascertain the timing which pays attention and operates the vehicle body front part according to the vehicle position in parallel parking. It should be noted that the image CQ3a may be displayed on the display 21 when the vehicle 9 moves backward from the state of being operated in the right direction to return to the neutral position. That is, the image CQ3a is displayed when it is detected that the vehicle 9 has reached the steering turning point.

なお、車体前方部を含む領域とは、図8に示すように車体前方の両角部を含む領域であっても良いし、車体の回転方向に応じて運転者が注意すべき車体前方角部(切返しにより車体が右方向に回転する場合は車体前方部の右角部)であってもよい。このように車体前方角部を表示する場合、ユーザが注意すべき車体の箇所をより大きく拡大できるため、ユーザは障害物と車両9との位置関係をより明確に知ることができる。
図8に示す画像CQ3aでは、車両9がステアリングホイール91を左方向へ操作したことに伴い、車両9の前輪401は直進方向を0度とした場合に、車両9の左方向に所定角度傾いている。そして、前輪401がこの所定角度に傾いた状態で車両9が移動する軌跡をガイド線501で表示する。ガイド線501の軌跡上には障害物である他車両19の車体は重なっていないので、車両9は他車両19と衝突することなく、スペースSA101に移動できることをユーザは確認できる。
The region including the front portion of the vehicle body may be a region including both corner portions in front of the vehicle body as shown in FIG. 8, or the front corner portion of the vehicle body that the driver should be aware of depending on the rotation direction of the vehicle body ( When the vehicle body rotates in the right direction by turning over, it may be a right corner portion of the front portion of the vehicle body). When the vehicle body front corner portion is displayed in this manner, the location of the vehicle body that the user should be aware of can be greatly enlarged, so that the user can know the positional relationship between the obstacle and the vehicle 9 more clearly.
In the image CQ3a shown in FIG. 8, when the vehicle 9 operates the steering wheel 91 to the left, the front wheel 401 of the vehicle 9 is inclined at a predetermined angle to the left of the vehicle 9 when the straight traveling direction is set to 0 degree. Yes. Then, a guide line 501 displays a trajectory in which the vehicle 9 moves while the front wheel 401 is inclined at the predetermined angle. Since the vehicle body of the other vehicle 19 which is an obstacle does not overlap on the locus of the guide line 501, the user can confirm that the vehicle 9 can move to the space SA101 without colliding with the other vehicle 19.

また、画像CQ3aの近傍には表示領域ガイド301aが表示されている。この表示領域ガイド301aは、図7に示す画像BA2から図8に示す画像CQ3aに画像の表示が切り替わったことに伴い、表示領域ガイド301の車両9の後方領域の表示から車両9の車体前方部を含む車両9の前方領域の表示に切り替わっている。このように縦列駐車モードM4において表示される画像の切り替えに応答して、表示領域ガイドの表示領域も変更される。これにより、画像の表示が切り替わった後も画像が車両9のどの領域を撮影しているかをユーザは直感的に認識できる。   A display area guide 301a is displayed in the vicinity of the image CQ3a. The display area guide 301a is changed from the display of the rear area of the vehicle 9 in the display area guide 301 to the front part of the vehicle 9 in accordance with the display switching from the image BA2 shown in FIG. 7 to the image CQ3a shown in FIG. Is switched to the display of the front area of the vehicle 9 including In this way, in response to switching of images displayed in the parallel parking mode M4, the display area of the display area guide is also changed. Thereby, even after the display of the image is switched, the user can intuitively recognize which area of the vehicle 9 the image is captured.

さらに、図8に示すように画像CQ3aと俯瞰画像である画像CQ3とを併せて表示することで、縦列駐車における車両位置に応じてユーザが注意を払って操作すべき車体部分の画像と、車両全体を含む車両9の周辺領域の画像とを同時にユーザは確認できる。   Furthermore, as shown in FIG. 8, by displaying the image CQ3a and the image CQ3 which is an overhead image together, an image of the vehicle body part that the user should operate with caution according to the vehicle position in the parallel parking, The user can simultaneously confirm the image of the surrounding area of the vehicle 9 including the whole.

図9は、駐車領域RF11に含まれるスペースSA101の車両9の画像を表示する合成画像CQ4(以下、画像「CQ4」ともいう。)と車両9の後方画像BA4以下、「画像BA4」ともいう。)とを示す図である。   9 is also referred to as a composite image CQ4 (hereinafter also referred to as an image “CQ4”) for displaying an image of the vehicle 9 in the space SA101 included in the parking area RF11, a rear image BA4 of the vehicle 9, and an “image BA4”. ).

図9は、図8に示した操作内容をユーザが行った後に画像CQ3aが表示された状態で、ユーザがステアリングホイール91を画像CQ3aが表示された際の左方向から右方向へ操作を切替えたことにより、画像CQ3aから画像BA4に切替えてディスプレイ21に表示することを示している。これにより、縦列駐車における車両位置に応じて車体前方部及び車両の後方に注意を払って操作するタイミングをユーザは把握できる。なお、画像CQ4では、ユーザがステアリングホイール91を左方向から右方向へ操作して、略中立位置となった状態で、車両9は駐車領域RF11内のスペースSA101に位置している。このため、ユーザは他車両19に衝突することなく車両9をスペースSA101内に駐車できる。   FIG. 9 shows the state in which the image CQ3a is displayed after the user performs the operation shown in FIG. 8, and the user switches the steering wheel 91 from the left direction to the right direction when the image CQ3a is displayed. This indicates that the image CQ3a is switched to the image BA4 and displayed on the display 21. Thereby, the user can grasp | ascertain the timing which pays attention and operates to the vehicle body front part and the back of a vehicle according to the vehicle position in parallel parking. In the image CQ4, the vehicle 9 is positioned in the space SA101 in the parking area RF11 in a state where the user operates the steering wheel 91 from the left direction to the right direction to reach the substantially neutral position. For this reason, the user can park the vehicle 9 in the space SA 101 without colliding with the other vehicle 19.

なお、画像CQ3aから画像BA4の切り替えに伴い、表示領域ガイドの表示領域は、画像301aに対応した車両9の車体前方部を含む車両9の前方領域を示した表示領域ガイド301から、画像BA4に対応した車両9の後方領域を示した表示領域ガイド301aに切り替えられている。
<2.処理>
次に、画像処理装置100の処理について説明する。図10及び図11は画像処理装置100の処理フローチャートである。ユーザからの駐車支援ボタン201の操作信号が入力された場合(ステップS101がYes)、画像処理装置100はフロントモードM2の画像をナビゲーション装置20に出力して(ステップS102)、ステップS103の処理へ進む。なお、ユーザからの駐車支援ボタン201の操作信号が画像処理装置100に入力されていない場合(ステップS101がNo)は、処理を終了する。
As the image CQ3a is switched to the image BA4, the display area guide display area is changed from the display area guide 301 indicating the front area of the vehicle 9 including the front portion of the vehicle 9 corresponding to the image 301a to the image BA4. The display area guide 301a showing the rear area of the corresponding vehicle 9 is switched.
<2. Processing>
Next, processing of the image processing apparatus 100 will be described. 10 and 11 are process flowcharts of the image processing apparatus 100. When the operation signal of the parking assistance button 201 is input from the user (Yes in Step S101), the image processing apparatus 100 outputs the image of the front mode M2 to the navigation apparatus 20 (Step S102), and proceeds to the process of Step S103. move on. Note that if the operation signal of the parking assistance button 201 from the user has not been input to the image processing apparatus 100 (No in step S101), the process ends.

ステップS103では、ユーザからの縦列駐車ボタン202の操作信号が画像処理装置100に入力された場合(ステップS103がYes)、縦列駐車モードM4の画像を出力して(ステップS104)、ステップS105の処理へ進む。   In step S103, when the operation signal of the parallel parking button 202 from the user is input to the image processing apparatus 100 (Yes in step S103), an image of the parallel parking mode M4 is output (step S104), and the process of step S105 is performed. Proceed to

縦列駐車モードM4では、車両9の周辺領域を略リアルタイムに示す俯瞰画像(画像CQ0)を表示して、車両9の大きさに対応した広さを有す駐車領域RF11を俯瞰画像(画像CQ0)中に表示する。また、俯瞰画像と併せて画像BA0を表示する。なお、縦列駐車ボタン202の操作信号が画像処理装置100に入力されていない場合(ステップS103がNo)は、画像処理装置100はフロントモードM2の画像出力を継続して行う。   In the parallel parking mode M4, a bird's-eye view image (image CQ0) showing the peripheral region of the vehicle 9 in substantially real time is displayed, and a parking region RF11 having a size corresponding to the size of the vehicle 9 is displayed as a bird's-eye view image (image CQ0). Display inside. In addition, the image BA0 is displayed together with the overhead image. When the operation signal of the parallel parking button 202 is not input to the image processing apparatus 100 (No in step S103), the image processing apparatus 100 continuously outputs the image in the front mode M2.

ステップS105では、ユーザの操作により駐車領域RF11が合成画像内の駐車スペースを含む位置に設定された信号が入力された場合(ステップS105がYes)は、ユーザが設定した位置を駐車スペースとして設定して(ステップS106)、ステップS107の処理へ進む。   In step S105, when a signal is input in which the parking area RF11 is set to a position including the parking space in the composite image by the user's operation (Yes in step S105), the position set by the user is set as the parking space. (Step S106), the process proceeds to Step S107.

なお、駐車領域を設定する信号が画像処理装置100に入力されていない場合(ステップS105がNo)は、縦列駐車モードM4の画像出力を継続して行う。また、所定時間経過後に縦列駐車モードM4の前のモードであるフロントモードM2に遷移するようにしてもよい。   In addition, when the signal which sets a parking area | region is not input into the image processing apparatus 100 (step S105 is No), the image output of parallel parking mode M4 is performed continuously. Moreover, you may make it change to the front mode M2 which is the mode before the parallel parking mode M4 after predetermined time progress.

ステップS107では、操舵角センサ84が検出した車両9のステアリングホイール91の回転方向、回転角度、及び、回転速度の情報が画像処理装置100へ入力により、画像CQ3aの出力条件を満たしている場合(ステップS107がYes)は、図11のステップS108の処理へ進む。そして、画像処理装置100は画像CQ3aをナビゲーション装置20へ出力してディスプレイ21に表示させ(ステップS109)、ステップS110の処理へ進む。   In step S107, when the information on the rotation direction, rotation angle, and rotation speed of the steering wheel 91 of the vehicle 9 detected by the steering angle sensor 84 is input to the image processing apparatus 100, the output condition of the image CQ3a is satisfied ( If step S107 is Yes), the process proceeds to step S108 in FIG. Then, the image processing apparatus 100 outputs the image CQ3a to the navigation apparatus 20 and displays it on the display 21 (step S109), and proceeds to the process of step S110.

つまり、ユーザのステアリングホイール91の操作内容に応答して、俯瞰画像中の車両9の車体前方部を含む領域を拡大した画像CQ3aを表示する。また詳細には、車両9のステアリングホイールが車両9が直進する中立位置から右方向に操作された後に、中立位置を経由して右方向とは逆の左方向に操作されたことに応答して、画像CQ3aを表示する。これにより、縦列駐車における車両位置に応じて車体のどの部分に注意を払って操作すればよいかをユーザは把握できる。また、縦列駐車における車両位置に応じて車体前方部に注意を払って操作するタイミングをユーザは把握できる。   That is, in response to the operation content of the user's steering wheel 91, the image CQ3a in which the region including the vehicle body front portion of the vehicle 9 in the overhead view image is enlarged is displayed. More specifically, in response to the steering wheel of the vehicle 9 being operated in the right direction from the neutral position where the vehicle 9 goes straight, and then in the left direction opposite to the right direction via the neutral position. The image CQ3a is displayed. Thereby, the user can grasp | ascertain which part of a vehicle body should pay attention and operate according to the vehicle position in parallel parking. Moreover, the user can grasp | ascertain the timing which pays attention to the front part of a vehicle body according to the vehicle position in parallel parking.

なお、画像CQ3aの出力条件を満たしていない場合(ステップS107がNo)は、継続して操舵角センサ84からの情報入力が画像処理装置100になされる。また、所定時間経過後もステップS107の条件を満たさない場合は、縦列駐車モードM4の前のモードであるフロントモードM2に遷移するようにしてもよい。   If the output condition of the image CQ3a is not satisfied (No in step S107), information input from the steering angle sensor 84 is continuously made to the image processing apparatus 100. In addition, when the condition of step S107 is not satisfied even after a predetermined time has elapsed, the mode may be shifted to the front mode M2, which is a mode before the parallel parking mode M4.

次に、ステップS109では、操舵角センサ84が検出した車両9のステアリングホイール91の回転方向、回転角度、及び、回転速度の情報が画像処理装置100へ入力により、画像BA4の出力条件を満たしているか否かを判定する(ステップS109)。   Next, in step S109, information on the rotation direction, rotation angle, and rotation speed of the steering wheel 91 of the vehicle 9 detected by the steering angle sensor 84 is input to the image processing apparatus 100 to satisfy the output condition of the image BA4. It is determined whether or not there is (step S109).

そして、画像BA4の出力条件を満たしている場合(ステップS109がYes)は、画像処理装置100は、ナビゲーション装置20への画像出力を画像CQ3aから画像B4に切り替えて、ディスプレイ21に画像B4を表示させて(ステップS110)、処理を終了する。   If the output condition of the image BA4 is satisfied (Yes in step S109), the image processing apparatus 100 switches the image output to the navigation apparatus 20 from the image CQ3a to the image B4 and displays the image B4 on the display 21. (Step S110), and the process ends.

詳細には、画像CQ3aが表示されている間に、ステアリングホイール91が左方向から右方向へ操作された場合に、拡大画像CQ3aから車両9の後方を示す画像B4に切替えて表示する。これにより、縦列駐車における車両位置に応じて車体前方部及び車両9の後方に注意を払って操作するタイミングをユーザは把握できる。   Specifically, when the steering wheel 91 is operated from the left direction to the right direction while the image CQ3a is displayed, the enlarged image CQ3a is switched to the image B4 showing the rear of the vehicle 9 and displayed. Thereby, the user can grasp | ascertain the timing which pays attention and operates to the vehicle body front part and the back of the vehicle 9 according to the vehicle position in parallel parking.

なお、画像B4の出力条件を満たしていない場合(ステップ109がNo)は、継続して操舵角センサ84からの情報入力が画像処理装置100になされる。また、所定時間経過後もステップS109の条件を満たさない場合は、縦列駐車モードM4の前のモードであるフロントモードM2に遷移するようにしてもよい。   If the output condition of the image B4 is not satisfied (No in Step 109), information input from the steering angle sensor 84 is continuously made to the image processing apparatus 100. In addition, when the condition of step S109 is not satisfied even after a predetermined time has elapsed, the mode may be shifted to the front mode M2, which is a mode before the parallel parking mode M4.

以上のように、画像表示システム120においては、車両9を縦列駐車する場合におけるステアリングホイール91の操作内容に応答して、俯瞰画像中の車両9の車体前方部を含む領域を拡大した前方拡大画像CQ3aが表示される。このため、縦列駐車における車両位置に応じて車体のどの部分に注意を払って操作すればよいかをユーザ把握できる。   As described above, in the image display system 120, in response to the operation content of the steering wheel 91 when the vehicles 9 are parked in parallel, the front enlarged image in which the region including the vehicle body front portion of the vehicle 9 in the overhead view image is enlarged. CQ3a is displayed. For this reason, the user can grasp which part of the vehicle body should be operated with care according to the vehicle position in the parallel parking.

また、ステアリングホイール91が車両9が直進する中立位置から右方向に操作された後に中立位置を経由して右方向とは逆の左方向に操作されたことに応答して、ディスプレイ21に前方拡大画像CQ3aを表示する。このため、縦列駐車における車両位置に応じて車体前方部に注意を払って操作するタイミングをユーザ把握できる。   Further, in response to the steering wheel 91 being operated in the right direction from the neutral position where the vehicle 9 is traveling straight forward, in response to the operation in the left direction opposite to the right direction via the neutral position, the display 21 is enlarged forward. The image CQ3a is displayed. For this reason, the user can grasp the timing of paying attention to the front part of the vehicle body according to the vehicle position in the parallel parking.

また、ディスプレイ21に前方拡大画像が表示されている間に、ステアリングホイール91が左方向から右方向へ操作された場合に、前方拡大画像CQ3aから車両9の後方を示す画像に切り替えて表示する。このため、縦列駐車における車両位置に応じて車体前方部、及び、車両9の後方に注意を払って操作するタイミングをユーザは把握できる。   Further, when the steering wheel 91 is operated from the left direction to the right direction while the front enlarged image is displayed on the display 21, the front enlarged image CQ3a is switched to the image showing the rear of the vehicle 9 and displayed. For this reason, the user can grasp the timing of paying attention to the front of the vehicle body and the rear of the vehicle 9 according to the vehicle position in parallel parking.

また、ディスプレイ21に前方拡大画像CQ3aと俯瞰画像CQ3とを併せて表示する。これにより、縦列駐車における車両9の位置に応じてユーザが注意を払って操作すべき車体部分の画像と、車両9の周辺領域を含む車両全体の画像とを同時にユーザは確認できる。
<第2の実施の形態>
次に、第2の実施の形態について説明する。第2の実施の形態の画像処理システム120a(図12に示す。)は、ユーザが車両9の駐車を開始する位置(駐車すべき位置に対して車両9の後退を開始する位置)に応じて、画像処理装置11がステアリングホイール91の切返し位置(以下、「切返し位置」ともいう。)を算出する。
Further, the front enlarged image CQ3a and the overhead image CQ3 are displayed together on the display 21. As a result, the user can simultaneously confirm the image of the vehicle body part that the user should pay attention to in accordance with the position of the vehicle 9 in the parallel parking and the image of the entire vehicle including the peripheral area of the vehicle 9.
<Second Embodiment>
Next, a second embodiment will be described. The image processing system 120a (shown in FIG. 12) according to the second embodiment corresponds to a position where the user starts parking the vehicle 9 (a position where the vehicle 9 starts to move backward relative to the position where the user should park). The image processing device 11 calculates the turning position of the steering wheel 91 (hereinafter also referred to as “turning position”).

そして、車両9が切返し位置に到達したことを画像処理装置11が検出した場合に、俯瞰画像中の車両9の車体前方部を含む領域を拡大した拡大領域を表示する。   Then, when the image processing device 11 detects that the vehicle 9 has reached the turn-back position, an enlarged region obtained by enlarging the region including the front part of the vehicle body of the vehicle 9 in the overhead view image is displayed.

第2の実施の形態の画像処理システム120aの構成及び処理は、第1の実施の形態とほぼ同様であるが、一部相違する。このため以下、相違点を中心に説明する。
<3.システム構成>
図12は画像処理システム120aのブロック図である。画像処理システム100aの画像処理装置10aに備えられる制御部1aは、第1の実施の形態の制御部1の画像制御部11の構成に加えて、新たに位置算出部12、及び、位置検出部13を備える。
The configuration and processing of the image processing system 120a of the second embodiment are substantially the same as those of the first embodiment, but are partly different. For this reason, the following description will focus on the differences.
<3. System configuration>
FIG. 12 is a block diagram of the image processing system 120a. In addition to the configuration of the image control unit 11 of the control unit 1 according to the first embodiment, the control unit 1a included in the image processing apparatus 10a of the image processing system 100a newly includes a position calculation unit 12 and a position detection unit. 13 is provided.

位置算出部12は、縦列駐車モードM4において車両9が後退して移動する中で、ユーザが車両9のステアリングホイール91を操作する位置である切返し位置を算出する。この切返し位置の算出は、ユーザが駐車領域RF11を設定した駐車スペースSA101の位置と、車両9の駐車開始位置との情報から制御部1aが理想経路(駐車開始位置から駐車スペースSA101までの経路)を算出し、その理想経路上のステアリングホイール91を操作する位置が切返し位置として算出される。   The position calculation unit 12 calculates a turn-back position that is a position where the user operates the steering wheel 91 of the vehicle 9 while the vehicle 9 moves backward in the parallel parking mode M4. The calculation of the turn-back position is performed by the controller 1a based on the information on the position of the parking space SA101 where the user sets the parking area RF11 and the parking start position of the vehicle 9 (the path from the parking start position to the parking space SA101). And the position at which the steering wheel 91 on the ideal route is operated is calculated as the turn-back position.

位置検出部13は、車速度センサ82、及び、操舵角センサ84の情報に基づいて車両9の移動軌跡を演算し、位置算出部12により算出された切返し位置と、ユーザの操作により移動する車両9の位置とが同じ位置となった場合に、車両9が切返し位置に到達したことを検出する。
<4.表示画像説明>
次に、縦列駐車モードM4で画像処理装置100からナビゲーション装置20に出力され、ディスプレイ21に表示される合成画像の詳細について図13〜図15を用いて説明する。図13は、駐車領域RF11の設定に伴う駐車開始位置SF21の算出を示す図である。ディスプレイ21には合成画像CQ1aを含む画像が表示されている。この合成画像CQ1aには、車両9の近傍にユーザの操作により移動する駐車領域RF11が表示されている。駐車領域RF11はユーザの操作により他車両19の後方の駐車スペースSA101に移動する。そして、駐車スペースSA101が車両9の駐車すべき位置として設定される。これにより、車両9の駐車すべき位置である駐車領域RF11が路面に対して固定される。
The position detection unit 13 calculates the movement locus of the vehicle 9 based on the information of the vehicle speed sensor 82 and the steering angle sensor 84, and the vehicle that moves by the turn-back position calculated by the position calculation unit 12 and the user's operation. When the position 9 becomes the same position, it is detected that the vehicle 9 has reached the turning position.
<4. Display image explanation>
Next, details of the composite image that is output from the image processing device 100 to the navigation device 20 and displayed on the display 21 in the parallel parking mode M4 will be described with reference to FIGS. FIG. 13 is a diagram illustrating calculation of the parking start position SF21 accompanying the setting of the parking area RF11. An image including the composite image CQ1a is displayed on the display 21. In the synthesized image CQ1a, a parking area RF11 that is moved by a user operation is displayed in the vicinity of the vehicle 9. The parking area RF11 moves to a parking space SA101 behind the other vehicle 19 by a user operation. And parking space SA101 is set as a position where vehicle 9 should park. Thereby, parking area RF11 which is the position which the vehicle 9 should park is fixed with respect to a road surface.

そして、車両9の駐車すべき位置である駐車領域RF11が路面に対して固定されたことに伴い、車両9の縦列駐車が可能となる開始位置を演算し、開始位置SF21として表示される。   Then, when the parking area RF11, which is the position where the vehicle 9 is to be parked, is fixed with respect to the road surface, the start position at which the vehicle 9 can be parked in parallel is calculated and displayed as the start position SF21.

図14は、切返しポイントMA31が表示された状態を示す図である。図13に示す車両9の位置から、合成画像CQ5に示すようにユーザの操作により車両9が直進方向に進行して、車体全体が開始位置SF21の領域に入ると、ユーザはシフトレバーを”D(前進)”から”R(後退)”に切り替えて縦列駐車を開始する。なお、このように車体全体が開始位置SF21の領域に入り、シフトレバーの切り替えが行われたことに伴い、その時点での車両9の位置から路面に固定された駐車領域RF11までの車両9の進行すべき理想経路、及び、切返し位置を制御部1aが演算する。なお、演算された理想経路は合成画像中に表示するようにしてもよい。また、切返し位置に対応する位置に指標MA31をディスプレイ21に表示してもよい。なお、この切返し位置である指標MA31は理想経路上に位置する。   FIG. 14 is a diagram illustrating a state in which the turning point MA31 is displayed. From the position of the vehicle 9 shown in FIG. 13, when the vehicle 9 advances in the straight direction by the user's operation as shown in the composite image CQ5 and the entire vehicle body enters the region of the start position SF21, the user moves the shift lever to “D”. Switch from “forward” to “R (reverse)” to start parallel parking. As the entire vehicle body enters the area of the start position SF21 and the shift lever is switched in this way, the vehicle 9 from the position of the vehicle 9 to the parking area RF11 fixed to the road surface at that time is changed. The control unit 1a calculates an ideal route to be traveled and a cut-back position. Note that the calculated ideal route may be displayed in the composite image. Further, the indicator MA31 may be displayed on the display 21 at a position corresponding to the cut-back position. The index MA31 which is the turning position is located on the ideal path.

図15は、車両9がステアリングホイール91の切返し位置に到達したことにより表示される前方拡大画像CQ3cを示す図である。車両9が駐車動作を開始した後、切返し位置に車両9が到達したことを、位置検出部13が検出すると、画像制御部11は、合成画像CQ3b中の車両9の車体前方部を含む領域を拡大した前方拡大画像CQ3cをディスプレイ21に表示する。これにより、車両9がステアリングホイール91の切返し位置へ到達したことを精度よく検出でき、それに伴いユーザが注意を払うべき車体の箇所を表示して、車体が他の物体に衝突することを防止できる。
<4.処理>
図16及び図17は、画像処理装置100aの処理フローチャートである。この図16及び図17の処理フローチャートは第1の実施の形態で図10及び図11を用いて説明した処理フローチャートにステップS201〜ステップS206の処理を加えたものであり、これ以外の処理は同様の処理である。図16に示すステップS106において、ユーザの操作により駐車スペースSA101に駐車領域RF11を設定するとステップS201の処理へ進む。
FIG. 15 is a diagram showing an enlarged front image CQ3c displayed when the vehicle 9 reaches the turning position of the steering wheel 91. As shown in FIG. When the position detection unit 13 detects that the vehicle 9 has arrived at the turn-back position after the vehicle 9 starts the parking operation, the image control unit 11 displays an area including the vehicle body front portion of the vehicle 9 in the composite image CQ3b. The enlarged front enlarged image CQ3c is displayed on the display 21. As a result, it is possible to accurately detect that the vehicle 9 has reached the turning position of the steering wheel 91, and accordingly, the location of the vehicle body that the user should pay attention to can be displayed to prevent the vehicle body from colliding with other objects. .
<4. Processing>
16 and 17 are processing flowcharts of the image processing apparatus 100a. The processing flowcharts of FIGS. 16 and 17 are obtained by adding the processing of steps S201 to S206 to the processing flowchart described with reference to FIGS. 10 and 11 in the first embodiment, and the other processing is the same. It is processing of. In step S106 shown in FIG. 16, when the parking area RF11 is set in the parking space SA101 by a user operation, the process proceeds to step S201.

ステップS201の処理では、駐車領域RF11の設定に伴い、画像処理装置100aが車両9の開始位置SF21を設定し(ステップS201)、ステップS202の処理へ進む。この開始位置SF21の設定は、ステップS106で設定された駐車スペースSA101の位置に応じて予め対応付けられた位置に設定される。つまり、駐車動作を開始した車両9が駐車スペースSA101に到達するために必要な距離などを予め算出しておき、この駐車スペースSA101に到達するために必要な距離などの情報に基づいて、画像処理装置100aが開始位置SF21を最適な位置に設定する。   In the process of step S201, the image processing apparatus 100a sets the start position SF21 of the vehicle 9 along with the setting of the parking area RF11 (step S201), and the process proceeds to the process of step S202. The start position SF21 is set to a position that is associated in advance according to the position of the parking space SA101 set in step S106. That is, the distance required for the vehicle 9 that has started the parking operation to reach the parking space SA101 is calculated in advance, and image processing is performed based on information such as the distance necessary to reach the parking space SA101. The apparatus 100a sets the start position SF21 to an optimal position.

ステップS202では、車両9の開始位置SF21への到達の状態を画像処理装置100aが判定する(ステップS202)。車両9の開始位置SF21への到達については、車速センサ82、及び、操舵角センサ84の入力情報に基づいて車両9の現在位置からの移動量を画像処理装置100aが演算し、車両9の開始位置SF21への到達の状態を判定する。   In step S202, the image processing apparatus 100a determines the state of the vehicle 9 reaching the start position SF21 (step S202). Regarding the arrival of the vehicle 9 at the start position SF21, the image processing device 100a calculates the movement amount from the current position of the vehicle 9 based on the input information of the vehicle speed sensor 82 and the steering angle sensor 84, and the start of the vehicle 9 is started. The state of arrival at the position SF21 is determined.

そして、車両9が開始位置SF21に到達した場合(ステップS202がYes)は、ステップS203の処理へ進む。なお、車両9が開始位置SF21に到達していない場合(ステップS202がNo)は、縦列駐車モードM4の画像出力を継続して行う。また、所定時間経過後に縦列駐車モードM4の前のモードであるフロントモードM2に遷移するようにしてもよい。   If the vehicle 9 has reached the start position SF21 (Yes in step S202), the process proceeds to step S203. In addition, when the vehicle 9 has not reached the start position SF21 (No in Step S202), image output in the parallel parking mode M4 is continuously performed. Moreover, you may make it change to the front mode M2 which is the mode before the parallel parking mode M4 after predetermined time progress.

ステップS203では、車両9の駐車開始位置から画像処理装置100aが理想経路(車両9の駐車開始位置から駐車スペースSA101までの経路)を算出して(ステップS203)、ステップS204の処理へ進む。   In step S203, the image processing apparatus 100a calculates an ideal route (a route from the parking start position of the vehicle 9 to the parking space SA101) from the parking start position of the vehicle 9 (step S203), and proceeds to the processing of step S204.

ステップS204では、位置算出部12が理想経路上のステアリングホイール91を操作する切返し位置を算出し(ステップS204)、ステップS205の処理へ進む。   In step S204, the position calculation unit 12 calculates a turning position at which the steering wheel 91 on the ideal route is operated (step S204), and the process proceeds to step S205.

ステップS205では、位置検出部13が、車速度センサ82、及び、操舵角センサ84の情報に基づいて車両9の移動軌跡を演算する。そして、車両9が切返し位置に到達した場合、つまり、位置算出部12により算出された切返し位置と、ユーザの操作により移動する車両9の位置とが同じ位置となった場合(ステップS205がYes)に、車両9が切返し位置に到達したとして、車両9の前方拡大画像を出力して(ステップS108)、ステップS206の処理へ進む。   In step S <b> 205, the position detection unit 13 calculates the movement locus of the vehicle 9 based on information from the vehicle speed sensor 82 and the steering angle sensor 84. When the vehicle 9 has reached the turning position, that is, when the turning position calculated by the position calculation unit 12 and the position of the vehicle 9 that is moved by the user's operation are the same position (Yes in step S205). Furthermore, assuming that the vehicle 9 has reached the turn-back position, a front enlarged image of the vehicle 9 is output (step S108), and the process proceeds to step S206.

ここで、切返し位置に対応する車両9の位置は車両9の車体の所定部分であり、予めユーザの任意の位置に設定が可能である。なお、車両9が切返し位置に到達していない場合(ステップS205がNo)は、縦列駐車モードM4の画像出力を継続して行う。また、所定時間経過後に縦列駐車モードM4の前のモードであるフロントモードM2に遷移するようにしてもよい。   Here, the position of the vehicle 9 corresponding to the turn-back position is a predetermined part of the vehicle body of the vehicle 9, and can be set in advance to any position of the user. If the vehicle 9 has not reached the turning position (No at step S205), the image output in the parallel parking mode M4 is continuously performed. Moreover, you may make it change to the front mode M2 which is the mode before the parallel parking mode M4 after predetermined time progress.

ステップS206では、車両9が切返し位置に到達した後、切返し位置を通過した場合(ステップS206がYes)は、画像処理装置100aは、ナビゲーション装置20への画像出力を画像CQ3cから図9に示す画像B4に切り替えて、ディスプレイ21に画像B4を表示させて(ステップS110)、処理を終了する。なお、車両9が切返し位置に到達した後、車両9が切返し位置を通過しない場合(ステップS206がNo)、画像処理装置100aは縦列駐車モードM4の画像出力を継続して行う。また、所定時間経過後に縦列駐車モードM4の前のモードであるフロントモードM2に遷移するようにしてもよい。   In step S206, when the vehicle 9 reaches the turning position and then passes the turning position (step S206 is Yes), the image processing apparatus 100a outputs the image output to the navigation apparatus 20 from the image CQ3c to the image shown in FIG. Switch to B4, display the image B4 on the display 21 (step S110), and terminate the process. If the vehicle 9 does not pass through the turn-back position after the vehicle 9 reaches the turn-back position (No in step S206), the image processing apparatus 100a continues to output the image in the parallel parking mode M4. Moreover, you may make it change to the front mode M2 which is the mode before the parallel parking mode M4 after predetermined time progress.

なお、本実施の形態では、車両9を駐車スペースSA101に設定された駐車領域RF11に対して縦列駐車させる場合について述べたが、本実施の形態の処理は縦列駐車以外の駐車例えば、並列駐車)においても適用できる。   In the present embodiment, the case where the vehicle 9 is parked in parallel with respect to the parking area RF11 set in the parking space SA101 has been described, but the processing of the present embodiment is parking other than parallel parking, for example, parallel parking). It can also be applied.

また、これまでの第1の実施の形態、及び、第2の実施の形態の記載から以下の処理が可能である。つまり、画像表示システムにおいては、車両9を駐車する場合に、車両9がステアリングホイール91の切返し位置に到達したことを画像処理装置100が検出する。そして、その検出情報から車両9が切返し位置に到達したことに応答して、俯瞰画像中の車両9の車体前方部を含む領域を拡大した前方拡大画像をディスプレイ21に表示する。これにより、ステアリングホイール91を切返す位置でユーザが注意を払うべき車体の箇所を表示して、車体が他の物体に衝突することを防止できる。   Moreover, the following processes are possible from the description of the first embodiment and the second embodiment thus far. That is, in the image display system, when the vehicle 9 is parked, the image processing apparatus 100 detects that the vehicle 9 has reached the turning position of the steering wheel 91. Then, in response to the vehicle 9 reaching the turning position from the detection information, a front enlarged image obtained by enlarging a region including the vehicle body front portion of the vehicle 9 in the overhead view image is displayed on the display 21. Thereby, the location of the vehicle body that the user should pay attention to at the position where the steering wheel 91 is turned back can be displayed, and the vehicle body can be prevented from colliding with other objects.

また、画像処理装置100は、車両9を駐車する場合にユーザが設定した車両の駐車すべき位置駐車スペースSA101に設定された駐車領域RF11)に応じてステアリングホイール91の切返し位置を算出する。そして、画像処理装置100は、車両9が移動した位置から算出されたステアリングホイール91の切返し位置への車両9の到達を検出して、車両9の前方拡大画像をディスプレイ21に表示する。これにより、車両9がステアリングホイール91の切返し位置へ到達したことを精度よく検出でき、それに伴いユーザが注意を払うべき車体の箇所を表示して、車体が他の物体に衝突することを防止できる。   Further, the image processing apparatus 100 calculates the turning position of the steering wheel 91 according to the parking area RF11 set in the parking lot position SA101 of the vehicle set by the user when the vehicle 9 is parked. Then, the image processing apparatus 100 detects the arrival of the vehicle 9 at the turning position of the steering wheel 91 calculated from the position where the vehicle 9 has moved, and displays a front enlarged image of the vehicle 9 on the display 21. As a result, it is possible to accurately detect that the vehicle 9 has reached the turning position of the steering wheel 91, and accordingly, the location of the vehicle body that the user should pay attention to can be displayed to prevent the vehicle body from colliding with other objects. .

さらに、画像処理装置100は車両9のステアリングホイール91の操作内容を示す信号の入力を受けて、ステアリングホイール91の操作状態に応じて切返し位置への車両9の到達を画像処理装置100が検出して、車両9の前方拡大画像をディスプレイ21に表示する。これにより、ユーザのステアリングホイール91の操作状態に伴い、ユーザが注意を払うべき車体の箇所を表示して、車体が他の物体に衝突することを防止できる。
<変形例>
以下、変形例について説明する。なお、上記の実施の形態、及び、下記で説明する形態を含む全ての形態は適宜に組み合わせ可能である。
Further, the image processing apparatus 100 receives a signal indicating the operation content of the steering wheel 91 of the vehicle 9, and the image processing apparatus 100 detects the arrival of the vehicle 9 at the turning-back position according to the operation state of the steering wheel 91. Then, a front enlarged image of the vehicle 9 is displayed on the display 21. Thereby, according to the operation state of the user's steering wheel 91, the location of the vehicle body that the user should pay attention to can be displayed, and the vehicle body can be prevented from colliding with other objects.
<Modification>
Hereinafter, modified examples will be described. In addition, all the forms including the above-described embodiment and the forms described below can be appropriately combined.

また、上記の実施の形態では、車両9の駐車スペースを車両9の右側のスペースSA101として駐車する例について述べたが、車両9の左側の駐車スペースに車両9を駐車する場合にも上記実施の形態の技術は適用できる。つまり、車両9の左側の駐車スペースに車両9を駐車する場合の前方拡大画像の表示は、縦列駐車モードM4において、ステアリングホイール91が車両9が直進する中立位置から左方向に操作された後に、中立位置を経由して左方向とは逆方向の右方向に操作されたことに応答して、後方画像から前方拡大画像に切替えて表示する。これにより、ユーザは縦列駐車位置の方向にかかわらず、車両位置に応じて車体前方部に注意を払って操作するタイミングをユーザは把握できる。   In the above embodiment, the example in which the parking space of the vehicle 9 is parked as the space SA101 on the right side of the vehicle 9 has been described. However, the above-described embodiment is also applied when the vehicle 9 is parked in the parking space on the left side of the vehicle 9. Form technology is applicable. That is, when the vehicle 9 is parked in the parking space on the left side of the vehicle 9, the display of the front enlarged image is performed in the parallel parking mode M4 after the steering wheel 91 is operated leftward from the neutral position where the vehicle 9 goes straight. In response to an operation in the right direction opposite to the left direction via the neutral position, the rear image is switched to the front enlarged image for display. Thereby, the user can grasp | ascertain the timing which pays attention and operates to the front part of the vehicle body according to the vehicle position regardless of the direction of the parallel parking position.

また、前方拡大画像が表示された状態で、ユーザがステアリングホイール91を前方拡大画像が表示された際の右方向から左方向へ操作したことにより、前方拡大画像から後方画像に切替えて表示する。これにより、縦列駐車における車両位置に応じて車体前方部及び車両9の後方に注意を払って操作するタイミングをユーザは把握できる。   In addition, when the user operates the steering wheel 91 from the right to the left when the front enlarged image is displayed while the front enlarged image is displayed, the front enlarged image is switched to the rear image and displayed. Thereby, the user can grasp | ascertain the timing which pays attention and operates to the vehicle body front part and the back of the vehicle 9 according to the vehicle position in parallel parking.

また、上記の実施の形態では、画像CQ3aから画像BA4への切り替えをステアリングホイール91が左方向から右方向へ操作されたことを条件としたが、左方向から右方向へ操作され、右方向の操作により、ステアリングホイール91が中立位置、及び、中立位置近傍のいずれかの位置となった時に画像CQ3aから画像BA4へ切り替えるようにしてもよい。これにより、ユーザが注意を払って操作を行う箇所をユーザは所定時間確認できる。また、縦列駐車における車両位置に応じて車体前方部に注意を払って操作するタイミングの前にユーザは注意する対称の状況を確認できる。   In the above embodiment, the switching from the image CQ3a to the image BA4 is performed on the condition that the steering wheel 91 is operated from the left direction to the right direction. The operation may be switched from the image CQ3a to the image BA4 when the steering wheel 91 is in the neutral position or any position in the vicinity of the neutral position. As a result, the user can check a place where the user pays attention and performs the operation for a predetermined time. In addition, the user can confirm a symmetric situation to be noted before the timing of paying attention to the front part of the vehicle body according to the vehicle position in the parallel parking.

また、表示されている合成画像よりも更に広い範囲を表示する場合は、俯瞰画像を生成する仮想視点の位置を現在の画像を生成する位置よりも上方向の位置に移動させることで、車両9から離れた駐車スペースに対して駐車領域RF11をユーザが設定することもできる。   Further, in the case of displaying a wider range than the displayed composite image, the vehicle 9 is moved by moving the position of the virtual viewpoint for generating the overhead image to a position higher than the position for generating the current image. The user can also set the parking area RF11 for the parking space away from the vehicle.

さらに、上記の実施の形態の俯瞰画像は複数のカメラの撮影画像により生成された合成画像以外に一のカメラにより生成された俯瞰画像であってもよい。   Furthermore, the bird's-eye view image of the above embodiment may be a bird's-eye view image generated by one camera other than a composite image generated by images taken by a plurality of cameras.

1・・・・制御部
3・・・・画像生成部
5・・・・撮影部
20・・・ナビゲーション装置
40・・・不揮発性メモリ
41・・・信号入力部
42・・・ナビ通信部
81・・・シフトセンサ
82・・・車速センサ
83・・・方向指示器
DESCRIPTION OF SYMBOLS 1 ... Control part 3 ... Image generation part 5 ... Imaging | photography part 20 ... Navigation apparatus 40 ... Non-volatile memory 41 ... Signal input part 42 ... Navigation communication part 81 ... Shift sensor 82 ... Vehicle speed sensor 83 ... Direction indicator

Claims (10)

車両に搭載される画像表示システムであって、
前記車両に配置されたカメラで得られる撮影画像から、前記車両及び前記車両の周辺領域を俯瞰した俯瞰画像を生成する生成手段と、
前記車両を駐車する場合に、前記車両がステアリングホイールの切返し位置に到達したことを検出する検出手段と、
前記検出手段の情報から前記車両が前記切返し位置に到達したことに応答して、前記俯瞰画像中の前記車両の車体前方部を含む領域を拡大した前方拡大画像を表示する表示手段と、
を備えること特徴とする画像表示システム。
An image display system mounted on a vehicle,
Generating means for generating a bird's-eye view image of the vehicle and a surrounding area of the vehicle from a captured image obtained by a camera disposed in the vehicle;
Detecting means for detecting that the vehicle has reached a turning position of a steering wheel when the vehicle is parked;
In response to the vehicle reaching the turning position from the information of the detection means, a display means for displaying a front enlarged image in which an area including a vehicle body front portion of the vehicle in the overhead view image is enlarged.
An image display system comprising:
請求項1に記載の画像表示システムにおいて、
前記車両を駐車する場合にユーザが設定した前記車両の駐車すべき位置に応じて前記切返し位置を算出する算出手段をさらに備え、
前記検出手段は、前記車両の位置情報から前記算出手段により算出された前記切返し位置への前記車両の到達を検出すること、
を特徴とする画像表示システム。
The image display system according to claim 1,
A calculation means for calculating the return position according to a position of the vehicle to be parked set by a user when the vehicle is parked;
The detecting means detects the arrival of the vehicle at the turning position calculated by the calculating means from the position information of the vehicle;
An image display system characterized by the above.
請求項1に記載の画像表示システムにおいて、
前記車両のステアリングホイールの操作内容を示す信号を入力する入力手段をさらに備え、
前記検出手段は前記ステアリングホイールの操作状態に応じて前記切返し位置への前記車両の到達を検出すること、
を特徴とする画像表示システム。
The image display system according to claim 1,
An input means for inputting a signal indicating the operation content of the steering wheel of the vehicle;
The detecting means detects the arrival of the vehicle at the turn-back position in accordance with an operation state of the steering wheel;
An image display system characterized by the above.
車両に搭載される画像表示システムであって、
前記車両に配置されたカメラで得られる撮影画像から、前記車両及び前記車両の周辺領域を俯瞰した俯瞰画像を生成する生成手段と、
前記車両のステアリングホイールの操作内容を示す信号を入力する入力手段と、
前記車両を縦列駐車する場合における前記操作内容に応答して、前記俯瞰画像中の前記車両の車体前方部を含む領域を拡大した前方拡大画像を表示する表示手段と、
を備えること特徴とする画像表示システム。
An image display system mounted on a vehicle,
Generating means for generating a bird's-eye view image of the vehicle and a surrounding area of the vehicle from a captured image obtained by a camera disposed in the vehicle;
Input means for inputting a signal indicating the operation content of the steering wheel of the vehicle;
In response to the operation details when the vehicles are parked in parallel, a display means for displaying a front enlarged image in which a region including a vehicle body front portion of the vehicle in the overhead view image is enlarged.
An image display system comprising:
請求項4に記載の画像表示システムにおいて、
前記表示手段は、前記ステアリングホイールが、前記車両が直進する中立位置から第1方向に操作された後に、前記第1方向とは逆方向の第2方向に操作され、前記ステアリングホイールが、前記中立位置、及び、前記中立位置近傍のいずれかの位置となったことに応答して、前記前方拡大画像を表示すること、
を特徴とする画像表示システム。
The image display system according to claim 4,
The display means is operated in a second direction opposite to the first direction after the steering wheel is operated in a first direction from a neutral position where the vehicle travels straight, and the steering wheel is operated in the neutral direction. In response to the position and any position in the vicinity of the neutral position, displaying the front enlarged image,
An image display system characterized by the above.
請求項4に記載の画像表示システムにおいて、
前記表示手段は、前記ステアリングホイールが、前記車両が直進する中立位置から第1方向に操作された後に、前記中立位置を経由して前記第1方向とは逆方向の第2方向に操作されたことに応答して、前記前方拡大画像を表示すること、
を特徴とする画像表示システム。
The image display system according to claim 4,
The display means is operated in the second direction opposite to the first direction via the neutral position after the steering wheel is operated in the first direction from the neutral position where the vehicle goes straight. In response, displaying the forward magnified image;
An image display system characterized by the above.
請求項5または6に記載の画像表示システムにおいて、
前記表示手段は、前記前方拡大画像が表示されている間に、前記ステアリングホイールが前記第2方向から前記第1方向へ操作された場合に、前記前方拡大画像から前記車両の後方を示す画像に切り替えて表示すること、
を特徴とする画像表示システム。
The image display system according to claim 5 or 6,
When the steering wheel is operated from the second direction to the first direction while the front enlarged image is displayed, the display means changes the front enlarged image to an image showing the rear of the vehicle. Switching to display,
An image display system characterized by the above.
請求項4乃至7のいずれかに記載の画像表示システムにおいて、
前記表示手段は、前記前方拡大画像と前記俯瞰画像とを併せて表示すること、
を特徴とする画像表示システム。
The image display system according to any one of claims 4 to 7,
The display means displays the front enlarged image and the overhead image together;
An image display system characterized by the above.
車両に搭載された表示装置に表示させる画像を生成する画像処理装置であって、
前記車両に配置されたカメラで得られる撮影画像から、前記車両及び前記車両の周辺領域を仮想視点から俯瞰した俯瞰画像を生成する生成手段と、
前記車両のステアリングホイールの操作内容を示す信号を入力する入力手段と、
前記車両を縦列駐車する場合における前記操作内容に応答して、前記俯瞰画像中の前記車両の車体前方部を含む領域を拡大した前方拡大画像を前記表示装置に出力して表示させる出力手段と、
を備えることを特徴とする画像処理装置。
An image processing device for generating an image to be displayed on a display device mounted on a vehicle,
Generating means for generating a bird's-eye view image of the vehicle and the surrounding area of the vehicle from a virtual viewpoint, from a captured image obtained by a camera disposed in the vehicle;
Input means for inputting a signal indicating the operation content of the steering wheel of the vehicle;
In response to the operation content when the vehicles are parked in parallel, an output means for outputting and displaying a front enlarged image in which an area including a vehicle body front portion of the vehicle in the overhead view image is enlarged and displayed on the display device;
An image processing apparatus comprising:
車両に搭載される画像表示方法であって、
前記車両に配置されたカメラで得られる撮影画像から、前記車両及び前記車両の周辺領域を仮想視点から俯瞰した俯瞰画像を生成する工程と、
前記車両のステアリングホイールの操作内容を示す信号を入力する工程と、
前記車両を縦列駐車する場合における前記操作内容に応答して、前記俯瞰画像中の前記車両の車体前方部を含む領域を拡大した前方拡大画像を表示する工程と、
を備えること特徴とする画像表示方法。
An image display method mounted on a vehicle,
Generating a bird's-eye view image of a bird's-eye view of the vehicle and a surrounding area of the vehicle from a captured image obtained by a camera arranged in the vehicle;
Inputting a signal indicating the operation content of the steering wheel of the vehicle;
In response to the operation details when the vehicles are parked in parallel, a step of displaying a front enlarged image in which an area including a vehicle body front portion of the vehicle in the overhead view image is enlarged;
An image display method comprising:
JP2010218320A 2010-08-30 2010-09-29 Image display system, image processing apparatus, and image display method Withdrawn JP2012073836A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010218320A JP2012073836A (en) 2010-08-30 2010-09-29 Image display system, image processing apparatus, and image display method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2010191913 2010-08-30
JP2010191913 2010-08-30
JP2010218320A JP2012073836A (en) 2010-08-30 2010-09-29 Image display system, image processing apparatus, and image display method

Publications (1)

Publication Number Publication Date
JP2012073836A true JP2012073836A (en) 2012-04-12

Family

ID=46169933

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010218320A Withdrawn JP2012073836A (en) 2010-08-30 2010-09-29 Image display system, image processing apparatus, and image display method

Country Status (1)

Country Link
JP (1) JP2012073836A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014099150A (en) * 2012-11-14 2014-05-29 Avisonic Technology Corp Method of controlling vehicle image display using touch panel, and related vehicle image system
DE102013224162A1 (en) 2013-11-26 2015-05-28 Robert Bosch Gmbh Method for generating a three-dimensional view
DE102014206246A1 (en) 2014-04-02 2015-10-08 Robert Bosch Gmbh A method and apparatus for adjusting a three-dimensional projection surface for projecting a plurality of adjacent camera images
JP2015225439A (en) * 2014-05-27 2015-12-14 株式会社デンソー Drive assist system
DE102015115256A1 (en) 2014-09-12 2016-03-17 Aisin Seiki Kabushiki Kaisha PARK ASSISTANCE SYSTEM, PARK ASSISTANCE PROCEDURE AND PARK ASSISTANCE TAX PROGRAM
DE102015115259A1 (en) 2014-09-12 2016-03-31 Aisin Seiki Kabushiki Kaisha PARK ASSISTANCE SYSTEM, PARK ASSISTANCE PROCEDURE AND PARK ASSISTANCE TAX PROGRAM
US10077045B2 (en) 2015-07-31 2018-09-18 Aisin Seiki Kabushiki Kaisha Parking assist system, method, and non-transitory computer readable medium storing program
JP2021123277A (en) * 2020-02-07 2021-08-30 フォルシアクラリオン・エレクトロニクス株式会社 Parking support device and parking support method
US11458957B2 (en) * 2017-07-03 2022-10-04 Toyota Jidosha Kabushiki Kaisha Vehicle surrounding display apparatus

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014099150A (en) * 2012-11-14 2014-05-29 Avisonic Technology Corp Method of controlling vehicle image display using touch panel, and related vehicle image system
US9195390B2 (en) 2012-11-14 2015-11-24 Avisonic Technology Corporation Method for controlling display of vehicular image by touch panel and vehicular image system thereof
DE102013224162A1 (en) 2013-11-26 2015-05-28 Robert Bosch Gmbh Method for generating a three-dimensional view
DE102014206246A1 (en) 2014-04-02 2015-10-08 Robert Bosch Gmbh A method and apparatus for adjusting a three-dimensional projection surface for projecting a plurality of adjacent camera images
JP2015225439A (en) * 2014-05-27 2015-12-14 株式会社デンソー Drive assist system
DE102015115256A1 (en) 2014-09-12 2016-03-17 Aisin Seiki Kabushiki Kaisha PARK ASSISTANCE SYSTEM, PARK ASSISTANCE PROCEDURE AND PARK ASSISTANCE TAX PROGRAM
DE102015115259A1 (en) 2014-09-12 2016-03-31 Aisin Seiki Kabushiki Kaisha PARK ASSISTANCE SYSTEM, PARK ASSISTANCE PROCEDURE AND PARK ASSISTANCE TAX PROGRAM
DE102015115256A9 (en) 2014-09-12 2016-05-12 Aisin Seiki Kabushiki Kaisha PARK ASSISTANCE SYSTEM, PARK ASSISTANCE PROCEDURE AND PARK ASSISTANCE TAX PROGRAM
US10077045B2 (en) 2015-07-31 2018-09-18 Aisin Seiki Kabushiki Kaisha Parking assist system, method, and non-transitory computer readable medium storing program
US11458957B2 (en) * 2017-07-03 2022-10-04 Toyota Jidosha Kabushiki Kaisha Vehicle surrounding display apparatus
JP2021123277A (en) * 2020-02-07 2021-08-30 フォルシアクラリオン・エレクトロニクス株式会社 Parking support device and parking support method
JP7555712B2 (en) 2020-02-07 2024-09-25 フォルシアクラリオン・エレクトロニクス株式会社 Parking assistance device and parking assistance method

Similar Documents

Publication Publication Date Title
JP2012073836A (en) Image display system, image processing apparatus, and image display method
JP6946652B2 (en) Parking support device
JP5681569B2 (en) Information processing system, server device, and in-vehicle device
JP5302227B2 (en) Image processing apparatus, image processing system, and image processing method
JP4815993B2 (en) Parking support method and parking support device
US9156402B2 (en) Wide view vehicle periphery image generation apparatus
JP3931857B2 (en) Parking assistance device and reverse assistance device
JP5743652B2 (en) Image display system, image generation apparatus, and image generation method
JP5087051B2 (en) Image generating apparatus and image display system
JP5341789B2 (en) Parameter acquisition apparatus, parameter acquisition system, parameter acquisition method, and program
JP5914114B2 (en) Parking assistance device and parking assistance method
EP1803602A1 (en) Driving assist method and driving assist apparatus
JP5044136B2 (en) Parking assistance device
JPWO2011010346A1 (en) Driving assistance device
JP5622986B2 (en) Image display system, image processing apparatus, and image display method
JP2012076551A (en) Parking support device, parking support method, and parking support system
JP2011131678A (en) Image processing device, image processing system and image processing method
JP2007168560A (en) Parking support apparatus
JP5479639B2 (en) Image processing apparatus, image processing system, and image processing method
JP5273068B2 (en) Vehicle periphery monitoring device
JP2012046124A (en) Image display system, image processing device and image display method
JP2011255812A (en) Parking support device
JP2011118485A (en) U-turn supporting device and method
JP5651491B2 (en) Image display system, image display apparatus, and image display method
JP5677168B2 (en) Image display system, image generation apparatus, and image generation method

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20131203