JP5643028B2 - Image display system, image processing apparatus, and image processing method - Google Patents

Image display system, image processing apparatus, and image processing method Download PDF

Info

Publication number
JP5643028B2
JP5643028B2 JP2010191922A JP2010191922A JP5643028B2 JP 5643028 B2 JP5643028 B2 JP 5643028B2 JP 2010191922 A JP2010191922 A JP 2010191922A JP 2010191922 A JP2010191922 A JP 2010191922A JP 5643028 B2 JP5643028 B2 JP 5643028B2
Authority
JP
Japan
Prior art keywords
vehicle
image
reference position
distance
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010191922A
Other languages
Japanese (ja)
Other versions
JP2012046125A (en
Inventor
武親 桐谷
武親 桐谷
康嘉 澤田
康嘉 澤田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2010191922A priority Critical patent/JP5643028B2/en
Publication of JP2012046125A publication Critical patent/JP2012046125A/en
Application granted granted Critical
Publication of JP5643028B2 publication Critical patent/JP5643028B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Navigation (AREA)

Description

本発明は、車両における画像表示技術に関する。   The present invention relates to an image display technique in a vehicle.

従来、車両を駐車する場合にユーザの目測で駐車スペースの広さを判断していた。そして、当該スペースへの駐車を開始した結果、車両の大きさよりも駐車スペースが狭いことにより駐車を断念せざるを得ない場合があった。また、車両の大きさと駐車スペースの広さとが略同一である場合、運転に慣れないユーザが駐車の際に車体を駐車スペースの外の障害物に衝突させてしまう可能性があった。   Conventionally, when a vehicle is parked, the size of the parking space is determined by the user's visual observation. And as a result of starting parking in the said space, there was a case where the parking space had to be abandoned because the parking space was narrower than the size of the vehicle. Further, when the size of the vehicle and the size of the parking space are substantially the same, there is a possibility that a user unaccustomed to driving may collide the vehicle body with an obstacle outside the parking space when parking.

これに対して、駐車スペースへの駐車の可否を判断する技術が特許文献1に開示されている。この技術では、車両の前方に備えられたカメラにより車両の側方の画像を撮影してモニタに表示する。表示された画像に基づいて駐車スペースの一端を始点位置としてユーザが選択する。そして、始点位置決定後に車両を前進させ、駐車スペースの他端を終点位置としてユーザが選択することで、駐車スペースの車両の進行方向の距離を測定し、測定された距離と車体の長さとを比較して、駐車の可否を判定する。   On the other hand, Patent Document 1 discloses a technique for determining whether or not parking is possible in a parking space. In this technique, an image of a side of the vehicle is taken by a camera provided in front of the vehicle and displayed on a monitor. Based on the displayed image, the user selects one end of the parking space as a start position. Then, after the start point position is determined, the vehicle is advanced, and the user selects the other end of the parking space as the end point position, thereby measuring the distance in the traveling direction of the vehicle in the parking space, and calculating the measured distance and the length of the vehicle body. In comparison, it is determined whether or not parking is possible.

特開2007−91046号公報JP 2007-91046 A

しかしながら、特許文献1に開示されている技術では、ユーザが車両の側方からの自車の車両が表示されていない画像に基づいて始点位置および終点位置を選択するため、自車の車両位置と駐車スペースの始点位置および終点位置との位置関係が明確ではない。このため、駐車スペースの始点と終点の位置を正確に設定して、駐車スペースの車両の進行方向に沿った距離を精度よく測定することが困難であった。また、駐車スペース以外に、ユーザが任意の位置からの距離の計測を行いたい場合に計測することができなかった。   However, in the technique disclosed in Patent Document 1, since the user selects the start point position and the end point position based on an image in which the vehicle of the host vehicle from the side of the vehicle is not displayed, The positional relationship between the start point position and end point position of the parking space is not clear. For this reason, it is difficult to accurately set the positions of the start point and end point of the parking space and accurately measure the distance of the parking space along the traveling direction of the vehicle. Moreover, when a user wanted to measure the distance from arbitrary positions other than a parking space, it was not able to measure.

本発明は、自車の車両位置と対応させて距離を精度よく測定すること目的とする。   An object of the present invention is to accurately measure the distance in correspondence with the vehicle position of the own vehicle.

上記課題を解決するため、請求項1の発明は、車両に搭載される画像表示システムであって、前記車両に配置されたカメラで得られる撮影画像から、前記車両及び前記車両の周辺領域を俯瞰した俯瞰画像を生成する生成手段と、前記俯瞰画像を表示する表示手段と、ユーザの操作に応じて特定される第1基準位置と、前記車両の特定部位に基づく第2基準位置とを、前記俯瞰画像の表示中に設定する設定手段と、前記第1基準位置と前記第2基準位置との距離である第1距離を導出する導出手段と、を備え、前記表示手段は、前記第1基準位置と前記第2基準位置とを結び、前記車両の移動に伴う前記第1距離の変化に応じて長さが変わる線状のライン画像を表示し、前記車両の移動により前記第1距離が前記車両の駐車に必要な第2距離以上となった場合に、前記ライン画像の表示態様を変更する。
In order to solve the above-mentioned problems, an invention according to claim 1 is an image display system mounted on a vehicle, and overlooks the vehicle and a surrounding area of the vehicle from a captured image obtained by a camera arranged in the vehicle. Generating means for generating the overhead image, display means for displaying the overhead image, a first reference position specified in accordance with a user operation, and a second reference position based on the specific part of the vehicle, Setting means for setting during the display of the overhead image, and derivation means for deriving a first distance that is a distance between the first reference position and the second reference position, and the display means includes the first reference position A linear line image that connects a position and the second reference position, and changes in length according to a change in the first distance accompanying the movement of the vehicle, and the movement of the vehicle causes the first distance to be Less than the second distance required for parking the vehicle When a, I change the display mode of the line image.

また、請求項2の発明は、請求項1に記載の画像表示システムにおいて、前記導出手段は、前記第1基準位置と前記第2基準位置とが同一位置となった後、前記車両の移動により前記第1基準位置と前記第2基準位置とが異なる位置となったときに、前記第1距離の導出を開始する。
According to a second aspect of the present invention, in the image display system according to the first aspect, the derivation means is configured to move the vehicle after the first reference position and the second reference position are the same position. Derivation of the first distance is started when the first reference position and the second reference position are different .

また、請求項3の発明は、請求項1または2に記載の画像表示システムにおいて、前記表示手段は、前記第1基準位置を設定する場合に、前記車両の先端部から前記車両の左右方向に延びる線上のポイントを指標で表示する。
According to a third aspect of the present invention, in the image display system according to the first or second aspect, when the first reference position is set , the display means extends from the front end of the vehicle in the left-right direction of the vehicle. The point on the extended line is displayed as an index .

また、請求項4の発明は、請求項1乃至3のいずれかに記載の画像表示システムにおいて、前記車両の特定部位は、前記車両の後端部および前記車両の先端部のいずれかである
According to a fourth aspect of the present invention, in the image display system according to any one of the first to third aspects, the specific part of the vehicle is one of a rear end portion of the vehicle and a front end portion of the vehicle .

また、請求項5の発明は、車両に搭載された表示装置に表示させる画像を生成する画像処理装置であって、前記車両に配置されたカメラで得られる撮影画像から、前記車両及び前記車両の周辺領域を俯瞰した俯瞰画像を生成する生成手段と、前記俯瞰画像を前記表示装置に出力して表示させる出力手段と、ユーザの操作に応じて特定される第1基準位置と、前記車両の特定部位に基づく第2基準位置とを、前記俯瞰画像の表示中に設定する設定手段と、前記第1基準位置と前記第2基準位置との距離である第1距離を導出する導出手段と、を備え、前記出力手段は、前記第1基準位置と前記第2基準位置とを結び、前記車両の移動に伴う前記第1距離の変化に応じて長さが変わる線状のライン画像を出力し、前記車両の移動により前記第1距離が前記車両の駐車に必要な第2距離以上となった場合に、表示態様が変更された前記ライン画像を出力して表示させる
Further, the invention of claim 5 is an image processing device for generating an image to be displayed on a display device mounted on a vehicle, and from the captured image obtained by a camera disposed in the vehicle, the vehicle and the vehicle Generation means for generating an overhead image overlooking the surrounding area, output means for outputting and displaying the overhead image on the display device, a first reference position specified according to a user operation, and specification of the vehicle Setting means for setting a second reference position based on a part during display of the overhead image, and derivation means for deriving a first distance that is a distance between the first reference position and the second reference position. The output means connects the first reference position and the second reference position, and outputs a linear line image whose length changes according to a change in the first distance due to the movement of the vehicle; As the vehicle moves, the first distance There when it becomes the second distance or more necessary parking of the vehicle, and displays and outputs the line image display mode is changed.

また、請求項6の発明は、車両に搭載された表示装置に表示させる画像を生成する画像処理装置の画像表示方法であって、(a)前記車両に配置されたカメラで得られる撮影画像から、前記車両及び前記車両の周辺領域を俯瞰した俯瞰画像を生成する工程と(b)前記俯瞰画像を前記表示装置に出力して表示させる工程と(c)ユーザの操作に応じて特定される第1基準位置と、前記車両の特定部位に基づく第2基準位置とを、前記俯瞰画像の表示中に設定する工程と(d)前記第1基準位置と前記第2基準位置との距離である第1距離を導出する工程と、を備え、前記工程(b)は、前記第1基準位置と前記第2基準位置とを結び、前記車両の移動に伴う前記第1距離の変化に応じて長さが変わる線状のライン画像を出力し、前記車両の移動により前記第1距離が前記車両の駐車に必要な第2距離以上となった場合に、表示態様が変更された前記ライン画像を出力して表示させる
The invention of claim 6 is an image display method of an image processing device for generating an image to be displayed on a display device mounted on a vehicle, and (a) from a photographed image obtained by a camera arranged in the vehicle. , said vehicle and generating a bird's-eye view image looking down the peripheral region of the vehicle, a step of displaying outputs a (b) the overhead image on the display device, is specified in response to the operation of (c) user A step of setting a first reference position and a second reference position based on a specific part of the vehicle during display of the overhead image, and (d) a distance between the first reference position and the second reference position A step of deriving a first distance, wherein the step (b) connects the first reference position and the second reference position and responds to a change in the first distance as the vehicle moves. Output a linear line image of varying length , When the first distance becomes greater than or equal to the second distance necessary for parking the vehicle due to the movement of the vehicle, the line image in which the display mode is changed is output and displayed .

請求項1ないし10の発明によれば車両の移動によって変化する第1距離に関する情報をユーザに報知することで、車両のユーザが任意の位置からの距離の計測を行いたい場合に正確に計測することができる。   According to the first to tenth aspects of the present invention, the information about the first distance that changes due to the movement of the vehicle is notified to the user, so that the user of the vehicle can accurately measure the distance from any position. be able to.

また、請求項2の発明によれば、第1距離が車両の駐車に必要な第2距離以上となった場合にユーザに報知することで、車両の位置と駐車スペースとの位置関係を明確にして、駐車スペースの距離を精度よくユーザへ知らせることができる。   According to the invention of claim 2, the positional relationship between the position of the vehicle and the parking space is clarified by notifying the user when the first distance is equal to or greater than the second distance necessary for parking the vehicle. Thus, the distance of the parking space can be accurately notified to the user.

また、特に請求項3の発明によれば、表示手段が、第1基準位置を設定する場合において、車両の先端部から車両の左右方向に延びる線上のポイントを指標で表示することで、ユーザは車両から目視で確認できる駐車スペースと表示された俯瞰画像との関係を車両を移動させながら把握できると共に、ユーザが目視で確認した位置を確実に設定できる。   In particular, according to the invention of claim 3, when the display means sets the first reference position, the user can display the point on the line extending from the front end of the vehicle in the left-right direction of the vehicle as an index, so that the user can It is possible to grasp the relationship between the parking space that can be visually confirmed from the vehicle and the displayed bird's-eye view image while moving the vehicle, and to reliably set the position visually confirmed by the user.

また、特に請求項4の発明によれば、導出手段は、車両の後端部に基づく位置である第2基準位置と第1基準位置との距離である第1距離を導出することで、ユーザは駐車に必要な距離となった車両の位置からすぐに駐車動作を開始できる。   In particular, according to the invention of claim 4, the deriving means derives a first distance that is a distance between the second reference position and the first reference position, which is a position based on the rear end of the vehicle, so that the user Can start the parking operation immediately from the position of the vehicle at the distance required for parking.

また、特に請求項5の発明によれば、導出手段は、車両の先端部に基づく位置である第2基準位置と前記第1基準位置との距離である第1距離を導出することで、ユーザは第1距離を導出している間に、車両の移動に伴って駐車スペースの状態を目視で確認できる。   In particular, according to the invention of claim 5, the deriving means derives a first distance that is a distance between the second reference position that is a position based on the front end portion of the vehicle and the first reference position, so that the user can While deriving the first distance, the state of the parking space can be visually confirmed as the vehicle moves.

また、特に請求項6の発明によれば、導出手段は、車両の進行に伴い移動する第2基準位置が第1基準位置と接触した後に第1基準位置から離れた場合に第1距離の導出を開始することで、ユーザは距離の導出のタイミングを知ることができ、距離の導出開始後のステアリングの不要な操作をなくすことで、正確な距離の導出が可能となる。   According to a sixth aspect of the invention, the derivation means derives the first distance when the second reference position that moves as the vehicle moves away from the first reference position after contacting the first reference position. By starting the operation, the user can know the timing of the derivation of the distance, and by eliminating unnecessary steering operation after the start of the derivation of the distance, the accurate distance can be derived.

また、特に請求項7の発明によれば、表示手段は、第1距離の導出に必要となるユーザの運転操作情報を俯瞰画像と関連付けて表示することで、ユーザは第1距離を導出する場合に必要となる運転操作を合成画像と一緒に確認できる。   In particular, according to the invention of claim 7, the display means displays the user's driving operation information necessary for deriving the first distance in association with the overhead image, so that the user derives the first distance. The necessary driving operation can be confirmed along with the composite image.

図1は、画像表示システムのブロック図である。FIG. 1 is a block diagram of an image display system. 図2は、車載カメラが車両に配置される位置を示す図である。FIG. 2 is a diagram illustrating a position where the in-vehicle camera is arranged in the vehicle. 図3は、合成画像を生成する手法を説明するための図である。FIG. 3 is a diagram for explaining a method of generating a composite image. 図4は、画像表示システムの動作モードの遷移を示す図である。FIG. 4 is a diagram illustrating transition of operation modes of the image display system. 図5は、第1の実施の形態の縦列駐車モードを説明する図である。FIG. 5 is a diagram for explaining the parallel parking mode according to the first embodiment. 図6は、画像処理装置の処理フローチャートである。FIG. 6 is a process flowchart of the image processing apparatus. 図7は、第2の実施の形態の縦列駐車モードを説明する図である。FIG. 7 is a diagram for explaining the parallel parking mode according to the second embodiment.

以下、図面を参照しつつ本発明の実施の形態について説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

<第1の実施の形態>
<1−1.システム構成>
図1は、画像表示システム120のブロック図である。この画像表示システム120は、車両(本実施の形態では、自動車)に搭載されるものであり、車両の周辺を撮影して画像を生成し、その生成した画像を車室内のナビゲーション装置20などの表示装置に出力する機能を有している。画像表示システム120のユーザ(代表的にはドライバ)は、この画像表示システム120を利用することにより、当該車両の周辺の様子をほぼリアルタイムに把握できるようになっている。
<First Embodiment>
<1-1. System configuration>
FIG. 1 is a block diagram of the image display system 120. The image display system 120 is mounted on a vehicle (in this embodiment, an automobile), generates an image by photographing the periphery of the vehicle, and uses the generated image as a navigation device 20 in the vehicle interior. It has a function of outputting to a display device. By using this image display system 120, a user (typically a driver) of the image display system 120 can grasp the state around the vehicle in almost real time.

図1に示すように、画像表示システム120は、車両の周辺を示す周辺画像を生成してナビゲーション装置20などの表示装置に画像情報を出力する画像処理装置100と、車両の周囲を撮影するカメラを備えている撮影部5とを主に備えている。   As shown in FIG. 1, an image display system 120 includes an image processing device 100 that generates a peripheral image indicating the periphery of a vehicle and outputs image information to a display device such as a navigation device 20, and a camera that captures the periphery of the vehicle. And a photographing unit 5 having the above.

ナビゲーション装置20は、ユーザに対しナビゲーション案内を行うものであり、タッチパネル機能を備えた液晶などのディスプレイ21と、ユーザが操作を行う操作部22と、装置全体を制御する制御部23とを備えている。ディスプレイ21の画面がユーザから視認可能なように、ナビゲーション装置20は車両のインストルメントパネルなどに設置される。ユーザからの各種の指示は、操作部22とタッチパネルとしてのディスプレイ21とによって受け付けられる。制御部23は、CPU、RAM及びROMなどを備えたコンピュータであり、所定のプログラムに従ってCPUが演算処理を行うことでナビゲーション機能を含む各種の機能が実現される。   The navigation device 20 provides navigation guidance to the user, and includes a display 21 such as a liquid crystal provided with a touch panel function, an operation unit 22 that is operated by the user, and a control unit 23 that controls the entire device. Yes. The navigation device 20 is installed on an instrument panel or the like of the vehicle so that the screen of the display 21 is visible from the user. Various instructions from the user are received by the operation unit 22 and the display 21 as a touch panel. The control unit 23 is a computer including a CPU, a RAM, a ROM, and the like, and various functions including a navigation function are realized by the CPU performing arithmetic processing according to a predetermined program.

ナビゲーション装置20は、画像処理装置100と通信可能に接続され、画像処理装置100との間で各種の制御信号の送受信や、画像処理装置100で生成された周辺画像の受信が可能となっている。ディスプレイ21には、制御部23の制御により、通常はナビゲーション装置20単体の機能に基づく画像が表示されるが、所定の条件下で画像処理装置100で生成された車両の周辺の様子を示す周辺画像や、車両9及び車両9の周辺領域を俯瞰した俯瞰画像が表示される。また、ディスプレイ21に表示される俯瞰画像は周辺領域をほぼリアルタイムに示すことになる。これにより、ナビゲーション装置20は、画像処理装置100で生成された周辺画像を受信して表示する表示装置としても機能する。   The navigation apparatus 20 is communicably connected to the image processing apparatus 100, and can transmit and receive various control signals to and from the image processing apparatus 100 and receive peripheral images generated by the image processing apparatus 100. . An image based on the function of the navigation device 20 alone is normally displayed on the display 21 under the control of the control unit 23, but the periphery showing the state of the periphery of the vehicle generated by the image processing device 100 under a predetermined condition An image and a bird's-eye view of the vehicle 9 and the surrounding area of the vehicle 9 are displayed. Moreover, the bird's-eye view image displayed on the display 21 shows the peripheral area almost in real time. Thereby, the navigation device 20 also functions as a display device that receives and displays a peripheral image generated by the image processing device 100.

画像処理装置100は、その本体部10が周辺画像を生成する機能を有するECU(Electronic Control Unit)であり、車両の所定の位置に配置される。画像処理装置100は、車両の周辺を撮影する撮影部5を備えており、この撮影部5で車両の周辺を撮影して得られる撮影画像に基づいて仮想視点からみた合成画像を生成する画像生成装置として機能する。これらの撮影部5が備える複数の車載カメラ51,52,53は、本体部10とは別の車両の適位置に配置されるが詳細は後述する。   The image processing apparatus 100 is an ECU (Electronic Control Unit) whose main body 10 has a function of generating a peripheral image, and is arranged at a predetermined position of the vehicle. The image processing apparatus 100 includes an imaging unit 5 that captures the periphery of the vehicle. The image generation unit 5 generates a composite image viewed from a virtual viewpoint based on a captured image obtained by capturing the periphery of the vehicle. Functions as a device. The plurality of in-vehicle cameras 51, 52, and 53 provided in these photographing units 5 are arranged at appropriate positions on a vehicle different from the main body unit 10, but will be described in detail later.

画像処理装置100の本体部10は、装置全体を制御する制御部1と、撮影部5で取得された撮影画像を処理して表示用の周辺画像を生成する画像生成部3と、ナビゲーション装置20との間で通信を行うナビ通信部42とを主に備えている。   The main body 10 of the image processing apparatus 100 includes a control unit 1 that controls the entire apparatus, an image generation unit 3 that generates a peripheral image for display by processing a captured image acquired by the imaging unit 5, and a navigation device 20. And a navigation communication unit 42 that communicates with each other.

ナビゲーション装置20の操作部22やディスプレイ21によって受け付けられたユーザからの各種の指示は、制御信号としてナビ通信部42によって受け付けられて制御部1に入力される。これにより、画像処理装置100は、ナビゲーション装置20に対するユーザの操作に応答した動作が可能となっている。   Various instructions from the user received by the operation unit 22 or the display 21 of the navigation device 20 are received by the navigation communication unit 42 as control signals and input to the control unit 1. As a result, the image processing apparatus 100 can operate in response to a user operation on the navigation apparatus 20.

また、画像処理装置100は、駐車支援ボタン201を備えている。この駐車支援ボタン201がユーザに操作されると、ユーザの指示を示す信号が制御部1に入力されて、後述するフロントモードM2(図4に示す。)の画像が表示される。なお、この駐車支援ボタン45はハードボタンとして画像処理装置100やナビゲーション装置20に設けられてもよいし。また、駐車支援ボタン45は、ナビゲーション装置20のディスプレイ21にユーザが指などをディスプレイ21に接触させて操作するタッチパネルのボタンとして表示されるようにしてもよい。   Further, the image processing apparatus 100 includes a parking assistance button 201. When the parking assist button 201 is operated by the user, a signal indicating the user's instruction is input to the control unit 1, and an image of a front mode M2 (shown in FIG. 4) described later is displayed. In addition, this parking assistance button 45 may be provided in the image processing apparatus 100 or the navigation apparatus 20 as a hard button. The parking assistance button 45 may be displayed on the display 21 of the navigation device 20 as a touch panel button that is operated by a user touching the display 21 with a finger or the like.

画像生成部3は、各種の画像処理が可能なハードウェア回路として構成されており、合成画像生成部31、画像範囲選択部32、及び、画像情報出力部33を主な機能として備えている。   The image generation unit 3 is configured as a hardware circuit capable of various image processing, and includes a composite image generation unit 31, an image range selection unit 32, and an image information output unit 33 as main functions.

合成画像生成部31は、撮影部5の複数の車載カメラ51,52,53で取得された複数の撮影画像に基づいて、車両の周辺の任意の仮想視点からみた合成画像を生成する。合成画像生成部31が仮想視点からみた合成画像を生成する手法については後述する。   The composite image generation unit 31 generates a composite image viewed from an arbitrary virtual viewpoint around the vehicle based on the plurality of captured images acquired by the plurality of in-vehicle cameras 51, 52, and 53 of the photographing unit 5. A method in which the composite image generation unit 31 generates a composite image viewed from a virtual viewpoint will be described later.

また、画像情報出力部33は合成画像生成部31において生成された合成画像情報をナビゲーション装置20へ出力する。これにより、車両の周辺を示す周辺画像がナビゲーション装置20のディスプレイ21に表示されることになる。   Further, the image information output unit 33 outputs the composite image information generated by the composite image generation unit 31 to the navigation device 20. As a result, a peripheral image showing the periphery of the vehicle is displayed on the display 21 of the navigation device 20.

制御部1は、CPU、RAM及びROMなどを備えたコンピュータであり、所定のプログラムに従ってCPUが演算処理を行うことで各種の制御機能が実現される。図中に示す、画像制御部11、位置設定制御部12、距離導出制御部13、及び、報知制御部14は、このようにして実現される制御部1の機能のうちの一部を示している。   The control unit 1 is a computer including a CPU, a RAM, a ROM, and the like, and various control functions are realized by the CPU performing arithmetic processing according to a predetermined program. The image control unit 11, the position setting control unit 12, the distance derivation control unit 13, and the notification control unit 14 shown in the drawing show some of the functions of the control unit 1 realized in this way. Yes.

画像制御部11は、画像生成部3によって実行される画像処理を制御するものである。例えば、画像制御部11は、合成画像生成部31が生成する合成画像の生成に必要な各種パラメータなどを指示する。また、画像範囲選択部32がサイドカメラ53により撮影した画像の所定範囲を選択するための指示を車種ごとのパラメータの情報に基づいて行う。   The image control unit 11 controls image processing executed by the image generation unit 3. For example, the image control unit 11 instructs various parameters necessary for generating a composite image generated by the composite image generation unit 31. In addition, the image range selection unit 32 issues an instruction for selecting a predetermined range of an image captured by the side camera 53 based on parameter information for each vehicle type.

位置設定制御部12は、後述するユーザが車両9を縦列駐車する際に選択される縦列駐車モードにおいて、車両9の先端部に表示される指標MA(図5に示す。)と他車両またはその他の位置(例えば駐車スペースの領域内の一地点)との位置関係に基づいたユーザの選択により計測開始位置DA(図5に示す。)を設定する。つまり、指標MAはユーザが選択した地点に固定されて、計測開始位置DAとなる。   The position setting control unit 12 and an index MA (shown in FIG. 5) displayed on the front end portion of the vehicle 9 and other vehicles or others in the parallel parking mode selected when the user described later parks the vehicle 9 in parallel. The measurement start position DA (shown in FIG. 5) is set by the user's selection based on the positional relationship with the position (for example, one point in the parking space area). That is, the index MA is fixed at the point selected by the user and becomes the measurement start position DA.

また、位置設定制御部12は、俯瞰画像(例えば図5に示す画像M41)に示される車両9の周辺領域に相対固定される計測開始位置DA(第1基準マーク)と俯瞰画像に示される車両9に相対固定される計測位置BA(第2基準マーク)とを、俯瞰画像中に重畳する制御を行う。   The position setting control unit 12 also includes a measurement start position DA (first reference mark) that is relatively fixed to a peripheral area of the vehicle 9 shown in the overhead image (for example, the image M41 shown in FIG. 5) and the vehicle shown in the overhead image. 9 is performed so that the measurement position BA (second reference mark) relatively fixed to 9 is superimposed on the overhead image.

なお、計測開始位置DAの設定は、ディスプレイ21のタッチパネルやハードボタンを用いたユーザの操作により行う。   The measurement start position DA is set by a user operation using the touch panel or hard button of the display 21.

距離導出制御部13は、後述する車両9の特定部位(例えば、車両9の先端部や車両9の後端部など)に基づく計測位置BAとユーザの選択により設定された計測開始位置DAとの間の距離を導出する。なお、計測位置BAはユーザの計測開始位置DAの設定に伴い車両9の特定部位に基づいてディスプレイ21に表示され、車両9の移動に伴って車両9の進行方向へ移動する。   The distance derivation control unit 13 determines a measurement position BA based on a specific part of the vehicle 9 described later (for example, a front end portion of the vehicle 9 or a rear end portion of the vehicle 9) and a measurement start position DA set by the user's selection. Deriving the distance between. The measurement position BA is displayed on the display 21 based on a specific part of the vehicle 9 according to the setting of the measurement start position DA by the user, and moves in the traveling direction of the vehicle 9 as the vehicle 9 moves.

報知制御部14は、車両9の移動により、計測開始位置DAと計測位置BAとの距離が車両9の駐車に必要な距離(例えば、車両の全長の約1.5倍)以上となった場合にユーザへの報知を行う。駐車に必要な距離以上となった報知の例は、ディスプレイ21に表示されている画像の色や大きさを変えたり、ナビゲーション装置20から音声を出力などがあげられる。   When the vehicle 9 moves, the notification control unit 14 causes the distance between the measurement start position DA and the measurement position BA to be equal to or longer than the distance necessary for parking the vehicle 9 (for example, about 1.5 times the total length of the vehicle). To the user. Examples of notifications when the distance is longer than necessary for parking include changing the color and size of an image displayed on the display 21 and outputting sound from the navigation device 20.

また、画像処理装置100の本体部10は、不揮発性メモリ40、カード読取部44、及び、信号入力部41をさらに備えており、これらは制御部1に接続されている。   The main body 10 of the image processing apparatus 100 further includes a nonvolatile memory 40, a card reading unit 44, and a signal input unit 41, which are connected to the control unit 1.

不揮発性メモリ40は、電源オフ時においても記憶内容を維持可能なフラッシュメモリなどで構成されている。不揮発性メモリ40には、車種別データ4aが記憶されている。車種別データ4aは、合成画像生成部31が合成画像を生成する際に必要となる車両の種別に応じたデータなどである。また、車両を駐車する際に必要な距離などのデータも記録されている。   The nonvolatile memory 40 is configured by a flash memory or the like that can maintain stored contents even when the power is turned off. The nonvolatile memory 40 stores vehicle type data 4a. The vehicle type data 4a is data corresponding to the type of vehicle required when the composite image generation unit 31 generates a composite image. In addition, data such as a distance necessary for parking the vehicle is also recorded.

カード読取部44は、可搬性の記録媒体であるメモリカードMCの読み取りを行う。カード読取部44は、メモリカードMCの着脱が可能なカードスロットを備えており、そのカードスロットに装着されたメモリカードMCに記録されたデータを読み取る。カード読取部44で読み取られたデータは、制御部1に入力される。   The card reading unit 44 reads a memory card MC that is a portable recording medium. The card reading unit 44 includes a card slot in which the memory card MC can be attached and detached, and reads data recorded on the memory card MC installed in the card slot. Data read by the card reading unit 44 is input to the control unit 1.

メモリカードMCは、種々のデータを記憶可能なフラッシュメモリなどで構成されており、画像処理装置100はメモリカードMCに記憶された種々のデータを利用できる。例えば、メモリカードMCにプログラムを記憶させ、これを読み出すことで、制御部1の機能を実現するプログラム(ファームウェア)を更新することが可能である。また、メモリカードMCに不揮発性メモリ40に記憶された車種別データ4aとは異なる種別の車両に応じた車種別データを記憶させ、これを読み出して不揮発性メモリ40に記憶させることで、画像表示システム120を異なる種別の車両に対応させることも可能である。   The memory card MC is configured by a flash memory or the like capable of storing various data, and the image processing apparatus 100 can use various data stored in the memory card MC. For example, a program (firmware) that realizes the function of the control unit 1 can be updated by storing a program in the memory card MC and reading the program. Further, the vehicle type data corresponding to the vehicle of a type different from the vehicle type data 4a stored in the nonvolatile memory 40 is stored in the memory card MC, and this is read out and stored in the nonvolatile memory 40, thereby displaying an image. It is also possible for the system 120 to correspond to different types of vehicles.

また、信号入力部41は、車両に設けられた各種装置からの信号を入力する。この信号入力部41を介して、画像表示システム120の外部からの信号が制御部1に入力される。具体的には、シフトセンサ81、車速センサ82、及び、方向指示器83などから、各種情報を示す信号が制御部1に入力される。   Moreover, the signal input part 41 inputs the signal from the various apparatuses provided in the vehicle. A signal from the outside of the image display system 120 is input to the control unit 1 via the signal input unit 41. Specifically, signals indicating various information are input to the control unit 1 from the shift sensor 81, the vehicle speed sensor 82, the direction indicator 83, and the like.

シフトセンサ81からは、車両9の変速装置のシフトレバーの操作の位置、すなわち、”P(駐車)”,”D(前進)”,”N(中立)”,”R(後退)”などのシフトポジションが入力される。車速センサ82からは、その時点の車両9の走行速度(km/h)が入力される。   From the shift sensor 81, the operation position of the shift lever of the transmission of the vehicle 9, ie, “P (parking)”, “D (forward)”, “N (neutral)”, “R (reverse)”, etc. The shift position is input. From the vehicle speed sensor 82, the traveling speed (km / h) of the vehicle 9 at that time is input.

方向指示器83からは、ウインカースイッチの操作に基づく方向指示、すなわち、車両のドライバが意図する方向指示を示すターン信号が入力される。ウインカースイッチが操作されたときはターン信号が発生し、ターン信号はその操作された方向(左方向あるいは右方向)を示すことになる。ウインカースイッチが中立位置となったときは、ターン信号はオフとなる。   From the direction indicator 83, a turn signal indicating a direction instruction based on the operation of the turn signal switch, that is, a direction instruction intended by the driver of the vehicle is input. When the turn signal switch is operated, a turn signal is generated, and the turn signal indicates the operated direction (left direction or right direction). When the turn signal switch is in the neutral position, the turn signal is turned off.

<1−2.撮影部>
次に、画像処理装置100の撮影部5について詳細に説明する。撮影部5は、制御部1に電気的に接続され、制御部1からの信号に基づいて動作する。
<1-2. Shooting Department>
Next, the photographing unit 5 of the image processing apparatus 100 will be described in detail. The photographing unit 5 is electrically connected to the control unit 1 and operates based on a signal from the control unit 1.

撮影部5は、車載カメラであるフロントカメラ51、バックカメラ52及びサイドカメラ53を備えている。これらの車載カメラ51,52,53はそれぞれ、CCDやCMOSなどの撮像素子を備えており電子的に画像を取得する。   The photographing unit 5 includes a front camera 51, a back camera 52, and a side camera 53 that are in-vehicle cameras. Each of these on-vehicle cameras 51, 52, and 53 includes an image sensor such as a CCD or a CMOS and electronically acquires an image.

図2は、車載カメラ51,52,53が車両9に配置される位置を示す図である。なお、以下の説明においては、方向及び向きを示す際に、適宜、図中に示す3次元のXYZ直交座標を用いる。このXYZ軸は車両9に対して相対的に固定される。ここで、X軸方向は車両9の左右方向に沿い、Y軸方向は車両9の直進方向(前後方向)に沿い、Z軸方向は鉛直方向に沿っている。また、便宜上、+X側を車両9の右側、+Y側を車両9の後側、+Z側を上側とする。   FIG. 2 is a diagram illustrating positions where the in-vehicle cameras 51, 52, 53 are arranged on the vehicle 9. In the following description, the three-dimensional XYZ orthogonal coordinates shown in the figure are used as appropriate when indicating the direction and direction. The XYZ axes are fixed relative to the vehicle 9. Here, the X-axis direction is along the left-right direction of the vehicle 9, the Y-axis direction is along the straight traveling direction (front-rear direction) of the vehicle 9, and the Z-axis direction is along the vertical direction. For convenience, the + X side is the right side of the vehicle 9, the + Y side is the rear side of the vehicle 9, and the + Z side is the upper side.

フロントカメラ51は、車両9の前端にあるナンバープレート取付位置の近傍に設けられ、その光軸51aは車両9の直進方向(平面視でY軸方向の−Y側)に向けられている。バックカメラ52は、車両9の後端にあるナンバープレート取付位置の近傍に設けられ、その光軸52aは車両9の直進方向の逆方向(平面視でY軸方向の+Y側)に向けられている。また、サイドカメラ53は、左右のドアミラー93にそれぞれ設けられており、その光軸53aは車両9の左右方向(平面視でX軸方向)に沿って外部に向けられている。なお、フロントカメラ51やバックカメラ52の取り付け位置は、左右略中央であることが望ましいが、左右中央から左右方向に多少ずれた位置であってもよい。   The front camera 51 is provided in the vicinity of the license plate mounting position at the front end of the vehicle 9, and its optical axis 51 a is directed in the straight traveling direction of the vehicle 9 (−Y side in the Y-axis direction in plan view). The back camera 52 is provided in the vicinity of the license plate mounting position at the rear end of the vehicle 9, and its optical axis 52 a is directed in the reverse direction of the vehicle 9 in the straight traveling direction (+ Y side in the Y-axis direction in plan view). Yes. The side cameras 53 are provided on the left and right door mirrors 93, respectively, and the optical axis 53a is directed to the outside along the left-right direction of the vehicle 9 (X-axis direction in plan view). Note that the mounting position of the front camera 51 and the back camera 52 is preferably approximately the center in the left and right, but may be slightly shifted in the left and right directions from the center in the left and right.

これらの車載カメラ51,52,53のレンズとしては魚眼レンズなどが採用されており、車載カメラ51,52,53は180度以上の画角αを有している。このため、4つの車載カメラ51,52,53を利用することで、車両9の全周囲の撮影が可能となっている。   As the lenses of these in-vehicle cameras 51, 52, and 53, fish-eye lenses are employed, and the in-vehicle cameras 51, 52, and 53 have an angle of view α of 180 degrees or more. For this reason, it is possible to shoot the entire periphery of the vehicle 9 by using the four in-vehicle cameras 51, 52, and 53.

<1−3.画像変換処理>
次に、画像生成部3の合成画像生成部31が、撮影部5で得られた複数の撮影画像に基づいて車両9の周辺を任意の仮想視点からみた様子を示す合成画像を生成する手法について説明する。合成画像を生成する際には、不揮発性メモリ40に予め記憶された車種別データ4aが利用される。図3は、合成画像を生成する手法を説明するための図である。
<1-3. Image conversion processing>
Next, a method in which the composite image generation unit 31 of the image generation unit 3 generates a composite image that shows how the periphery of the vehicle 9 is viewed from an arbitrary virtual viewpoint based on a plurality of captured images obtained by the imaging unit 5. explain. When generating the composite image, the vehicle type data 4a stored in advance in the nonvolatile memory 40 is used. FIG. 3 is a diagram for explaining a method of generating a composite image.

撮影部5のフロントカメラ51、バックカメラ52及びサイドカメラ53で同時に撮影が行われると、車両9の前方、後方、左側方、及び、右側方をそれぞれ示す4つの撮影画像P1〜P4が取得される。すなわち、撮影部5で取得される4つの撮影画像P1〜P4には、撮影時点の車両9の全周囲を示す情報が含まれていることになる。   When the front camera 51, the back camera 52, and the side camera 53 of the photographing unit 5 are simultaneously photographed, four photographed images P1 to P4 that respectively indicate the front, rear, left side, and right side of the vehicle 9 are acquired. The That is, the four captured images P1 to P4 acquired by the imaging unit 5 include information indicating the entire periphery of the vehicle 9 at the time of shooting.

次に、4つの撮影画像P1〜P4の各画素が、仮想的な三次元空間における立体曲面SPに投影される。立体曲面SPは、例えば略半球状(お椀形状)をしており、その中心部分(お椀の底部分)が車両9が存在する位置として定められている。撮影画像P1〜P4に含まれる各画素の位置と、この立体曲面SPの各画素の位置とは予め対応関係が定められている。このため、立体曲面SPの各画素の値は、この対応関係と撮影画像P1〜P4に含まれる各画素の値とに基づいて決定できる。   Next, each pixel of the four captured images P1 to P4 is projected onto a three-dimensional curved surface SP in a virtual three-dimensional space. The three-dimensional curved surface SP has, for example, a substantially hemispherical shape (a bowl shape), and a center portion (a bottom portion of the bowl) is determined as a position where the vehicle 9 exists. The correspondence between the positions of the pixels included in the captured images P1 to P4 and the positions of the pixels of the solid curved surface SP is determined in advance. For this reason, the value of each pixel of the solid curved surface SP can be determined based on this correspondence and the value of each pixel included in the captured images P1 to P4.

撮影画像P1〜P4の各画素の位置と立体曲面SPの各画素の位置との対応関係は、車両9における4つの車載カメラ51,52,53の配置(相互間距離、地上高さ、光軸角度等)に依存する。このため、この対応関係を示すテーブルデータが、不揮発性メモリ40に記憶された車種別データ4aに含まれている。   The correspondence between the positions of the pixels of the captured images P1 to P4 and the positions of the pixels of the three-dimensional curved surface SP is determined by the arrangement of the four in-vehicle cameras 51, 52, and 53 in the vehicle 9 (the distance between each other, the height above the ground, the optical axis). Angle). For this reason, the table data indicating this correspondence is included in the vehicle type data 4 a stored in the nonvolatile memory 40.

また、車種別データ4aに含まれる車体の形状やサイズを示すポリゴンデータが利用され、車両9の三次元形状を示すポリゴンモデルである車両像を仮想的に備えている。構成された車両像は、立体曲面SPが設定される三次元空間において、車両9の位置と定められた略半球状の中心部分に配置される。   Further, polygon data indicating the shape and size of the vehicle body included in the vehicle type data 4a is used, and a vehicle image that is a polygon model indicating the three-dimensional shape of the vehicle 9 is virtually provided. The configured vehicle image is arranged in a substantially hemispherical central portion determined as the position of the vehicle 9 in the three-dimensional space where the three-dimensional curved surface SP is set.

さらに、立体曲面SPが存在する三次元空間に対して、制御部1により仮想視点VPが設定される。仮想視点VPは、視点位置と視野方向とで規定され、この三次元空間における車両9の周辺に相当する任意の視点位置に任意の視野方向に向けて設定される。   Further, the virtual viewpoint VP is set by the control unit 1 for the three-dimensional space where the solid curved surface SP exists. The virtual viewpoint VP is defined by the viewpoint position and the visual field direction, and is set to an arbitrary visual field position corresponding to the periphery of the vehicle 9 in this three-dimensional space toward an arbitrary visual field direction.

そして、設定された仮想視点VPに応じて、立体曲面SPにおける必要な領域が画像として切り出される。仮想視点VPと、立体曲面SPにおける必要な領域との関係は予め定められており、テーブルデータとして不揮発性メモリ40等に予め記憶されている。一方で、設定された仮想視点VPに応じてポリゴンで構成された車両像に関してレンダリングがなされ、その結果となる二次元の車両像が、切り出された画像に対して重畳される。これにより、車両9及びその車両9の周辺を任意の仮想視点からみた様子を示す合成画像が生成されることになる。   Then, according to the set virtual viewpoint VP, a necessary area on the three-dimensional curved surface SP is cut out as an image. The relationship between the virtual viewpoint VP and a necessary area in the three-dimensional curved surface SP is determined in advance, and is stored in advance in the nonvolatile memory 40 or the like as table data. On the other hand, rendering is performed on the vehicle image composed of polygons according to the set virtual viewpoint VP, and the resulting two-dimensional vehicle image is superimposed on the cut out image. Thereby, the composite image which shows a mode that the vehicle 9 and the periphery of the vehicle 9 were seen from arbitrary virtual viewpoints will be produced | generated.

例えば、視点位置が車両9の位置の略中央の直上位置で、視野方向が略直下方向とした仮想視点VP1を設定した場合は、車両9の略直上から車両9を見下ろすように、車両9(実際には車両像)及び車両9の周辺の様子を示す合成画像CP1が生成される。また、図中に示すように、視点位置が車両9の位置の左後方で、視野方向が車両9における略前方とした仮想視点VP2を設定した場合は、車両9の左後方からその周辺全体を見渡すように、車両9(実際には車両像)及び車両9の周辺の様子を示す合成画像CP2が生成される。   For example, when the virtual viewpoint VP1 in which the viewpoint position is a position just above the center of the position of the vehicle 9 and the visual field direction is a direction immediately below the vehicle 9 is set, the vehicle 9 ( Actually, a composite image CP1 showing the vehicle image) and the surroundings of the vehicle 9 is generated. Further, as shown in the figure, when the virtual viewpoint VP2 in which the viewpoint position is the left rear of the position of the vehicle 9 and the visual field direction is substantially in front of the vehicle 9 is set, the entire periphery from the left rear of the vehicle 9 is set. As seen, a composite image CP <b> 2 is generated that shows the vehicle 9 (actually a vehicle image) and the surroundings of the vehicle 9.

なお、実際に合成画像を生成する場合においては、立体曲面SPの全ての画素の値を決定する必要はなく、設定された仮想視点VPに対応して必要となる領域の画素の値のみを撮影画像P1〜P4に基づいて決定することで、処理速度を向上できる。   In the case of actually generating a composite image, it is not necessary to determine the values of all the pixels of the three-dimensional curved surface SP, and only the values of the pixels in the area necessary corresponding to the set virtual viewpoint VP are photographed. By determining based on the images P1 to P4, the processing speed can be improved.

<1−4.動作モード>
次に、画像表示システム120の動作モードについて説明する。図4は、画像表示システム120の動作モードの遷移を示す図である。画像表示システム120は、ナビモードM1、フロントモードM2、バックモードM3、及び、縦列駐車モードM4の4つの動作モードを有している。これらの動作モードは、ユーザの操作や車両9の走行状態に応じて制御部1の制御により切り替えられるようになっている。
<1-4. Operation mode>
Next, the operation mode of the image display system 120 will be described. FIG. 4 is a diagram illustrating transition of operation modes of the image display system 120. The image display system 120 has four operation modes: a navigation mode M1, a front mode M2, a back mode M3, and a parallel parking mode M4. These operation modes can be switched by the control of the control unit 1 according to the user's operation and the running state of the vehicle 9.

ナビモードM1は、ナビゲーション装置20の機能により、ナビゲーション案内用の地図画像NPを主にディスプレイ21に表示する動作モードである。ナビモードM1では、画像処理装置100の機能が利用されず、ナビゲーション装置20単体の機能で各種の表示がなされる。   The navigation mode M <b> 1 is an operation mode in which a map image NP for navigation guidance is mainly displayed on the display 21 by the function of the navigation device 20. In the navigation mode M1, the functions of the image processing apparatus 100 are not used, and various displays are performed with the functions of the navigation apparatus 20 alone.

フロントモードM2、バックモードM3、及び、縦列駐車モードM4は、画像処理装置100の機能を利用して、撮影画像PP、合成画像CP及びCQ0、運転サポート画像PH0などをディスプレイ21に表示して、車両9の周辺の状況をほぼリアルタイムでユーザに示す動作モードである。   The front mode M2, the back mode M3, and the parallel parking mode M4 use the functions of the image processing device 100 to display the captured image PP, the composite images CP and CQ0, the driving support image PH0, and the like on the display 21. This is an operation mode in which the situation around the vehicle 9 is shown to the user almost in real time.

また、フロントモードM2は、前進時に必要となる車両9の前方や側方を主に示す画像を表示する動作モードである。例えば、図中に示すように、車両9の直上の仮想視点からみた車両9及び車両9の周辺の様子を示す合成画像(俯瞰画像)CP、つまり、仮想的に俯瞰した画像と、フロントカメラ51での撮影により得られる撮影画像PPとが同時にディスプレイ21に表示される。この合成画像CPの仮想視点の位置は、車両9の直上に限らず、ユーザの操作に応じて車両9の後方側などへ切り替えられるようになっていてもよい。さらに、フロントモードM2は、自車の中心に周囲2〜3mの範囲を俯瞰画像として表示したモードである。   Further, the front mode M2 is an operation mode for displaying an image mainly showing the front and side of the vehicle 9 that is required when moving forward. For example, as shown in the figure, a composite image (overhead image) CP showing a state of the vehicle 9 and the surroundings of the vehicle 9 as viewed from the virtual viewpoint directly above the vehicle 9, that is, a virtually overhead image, and the front camera 51 The photographed image PP obtained by photographing with is displayed on the display 21 at the same time. The position of the virtual viewpoint of the composite image CP is not limited to the position directly above the vehicle 9, and may be switched to the rear side of the vehicle 9 or the like according to a user operation. Further, the front mode M2 is a mode in which a range of 2 to 3 m around the center of the host vehicle is displayed as an overhead image.

また、バックモードM3は、後退時に必要となる車両9の後方を主に示す画像を表示する動作モードである。例えば、図中に示すように、車両9の直上の仮想視点からみた車両9及び車両9の周辺の様子を示す合成画像(俯瞰画像)CPと、バックカメラ52での撮影により得られる撮影画像PPとが同時にディスプレイ21に表示される。この合成画像CPの仮想視点の位置は、車両9の直上に限らず、ユーザの操作に応じて車両9の前方側などへ切り替えられるようになっていてもよい。   Further, the back mode M3 is an operation mode for displaying an image mainly showing the rear of the vehicle 9 that is required when reversing. For example, as shown in the figure, a composite image (overhead image) CP showing a state of the vehicle 9 and the surroundings of the vehicle 9 viewed from a virtual viewpoint directly above the vehicle 9, and a captured image PP obtained by capturing with the back camera 52 Are simultaneously displayed on the display 21. The position of the virtual viewpoint of the composite image CP is not limited to the position immediately above the vehicle 9, and may be switched to the front side of the vehicle 9 or the like according to a user operation.

さらに、縦列駐車モードM4は、ユーザが車両9を縦列駐車する際にユーザの運転操作をサポートするモードである。例えば、図中に示すように、車両9の直上の仮想視点からみた車両9、車両9の先端部から車両9の左右方向に延びる線上のポイントを表示する指標MA、及び、車両9の周辺の様子を示す画像が合成画像俯瞰画像)CQ0として表示される。   Furthermore, the parallel parking mode M4 is a mode that supports the user's driving operation when the user parks the vehicle 9 in parallel. For example, as shown in the figure, the vehicle 9 viewed from the virtual viewpoint directly above the vehicle 9, an indicator MA that displays points on a line extending from the front end of the vehicle 9 in the left-right direction of the vehicle 9, An image showing the situation is displayed as a composite image overhead image) CQ0.

詳細には縦列駐車モードM4は、フロントモードM2の縦列駐車ボタン202をユーザが操作することにより開始される。そして、縦列駐車モードM4では、フロントモードM2で表示されていた車両9と車両9の周辺の様子を示す合成画像俯瞰画像)CPに、車両9の先端部から車両9の左右方向に延びる線上のポイントを表示する指標MAが加わり、合成画像CQとして表示される。   Specifically, the parallel parking mode M4 is started when the user operates the parallel parking button 202 in the front mode M2. In the parallel parking mode M4, the composite image overhead view image CP showing the vehicle 9 and the surroundings of the vehicle 9 displayed in the front mode M2 is displayed on a line extending in the left-right direction of the vehicle 9 from the front end portion of the vehicle 9. An index MA for displaying the points is added and displayed as a composite image CQ.

なお、以下では、図中の車両9の右側の指標を指標MRとし、車両9の左側の指標を指標MLとし、これら2つの指標を合わせて指標MAという。   In the following, the index on the right side of the vehicle 9 in the figure is referred to as an index MR, the index on the left side of the vehicle 9 is referred to as an index ML, and these two indices are collectively referred to as an index MA.

また、ユーザの運転操作の情報を合成画像CQ0の表示と関連付けて表示する運転サポート画像PH0も合成画像CQ0と同時にディスプレイに表示される。つまり、フロントモードM2の縦列駐車ボタン202をユーザが操作すると、フロントモードM2で表示されていた撮影画像PPが運転サポート画像PH0に切り替わる。   In addition, the driving support image PH0 that displays the information of the driving operation of the user in association with the display of the composite image CQ0 is also displayed on the display simultaneously with the composite image CQ0. That is, when the user operates the parallel parking button 202 in the front mode M2, the captured image PP displayed in the front mode M2 is switched to the driving support image PH0.

各モードの遷移は、ナビモードM1において、ナビゲーション装置20のディスプレイ21に表示される駐車支援ボタン201をユーザが操作した場合、または、ユーザが操作部22を操作した場合など、所定操作によりフロントモードM2に切り替えられる。また、フロントモードM2において、ユーザの操作部22による操作などの所定操作により、ナビモードM1に切り替えられる。なお、ナビモードM1とフロントモードM2とは、車速センサ82から入力される走行速度に応じて切り替えてもよい。   The transition of each mode is performed in the front mode by a predetermined operation such as when the user operates the parking support button 201 displayed on the display 21 of the navigation device 20 or when the user operates the operation unit 22 in the navigation mode M1. Switch to M2. Further, in the front mode M2, the navigation mode M1 is switched by a predetermined operation such as an operation by the operation unit 22 of the user. The navigation mode M1 and the front mode M2 may be switched according to the traveling speed input from the vehicle speed sensor 82.

また、ナビモードM1あるいはフロントモードM2の場合に、シフトセンサ81から入力されるシフトポジションが”R(後退)”となったときは、バックモードM3に切り替えられる。すなわち、シフトポジションが”R(後退)”の場合は、車両9は後退する状態であるため、車両9の後方を主に示すバックモードM3に切り替えられる。また、バックモードM3の場合に、シフトポジションが”R(後退)”以外となったときは、バックモードM3に切り替えられる直前の動作モードに戻ることになる。なお、バックモードM3において、ディスプレイ21に表示される駐車支援ボタン201をユーザが操作した場合は、フロントモードM2となる。   In the navigation mode M1 or the front mode M2, when the shift position input from the shift sensor 81 is “R (reverse)”, the mode is switched to the back mode M3. That is, when the shift position is “R (reverse)”, the vehicle 9 is in a reverse state, and therefore, the back mode M3 that mainly indicates the rear of the vehicle 9 is switched. Further, in the case of the back mode M3, when the shift position is other than “R (reverse)”, the operation mode immediately before switching to the back mode M3 is returned. In the back mode M3, when the user operates the parking assistance button 201 displayed on the display 21, the front mode M2 is set.

そして、フロントモードM2において、ディスプレイ21に表示された縦列駐車ボタン202をユーザが操作すると、縦列駐車モードM4の画像が画像処理装置100から出力され、ディスプレイ21に表示される。また、縦列駐車モードM4においてディスプレイ21の戻るボタン203をユーザが操作した場合は、フロントモードM2に遷移する。   When the user operates the parallel parking button 202 displayed on the display 21 in the front mode M2, an image in the parallel parking mode M4 is output from the image processing apparatus 100 and displayed on the display 21. Further, when the user operates the return button 203 of the display 21 in the parallel parking mode M4, the mode is changed to the front mode M2.

<1−5縦列駐車モード>
以下では、縦列駐車モードM4の画像の詳細について説明する。図5は第1の実施の形態の縦列駐車モードM4を説明する図である。フロントモードM2でユーザにより縦列駐車ボタン202が選択されると、縦列駐車モードM4の画像(以下、「画像M4」ともいう。)が画像処理装置100から出力され、ディスプレイ21に表示される。なお、以下に説明する縦列駐車モードM4の各画像(M4、M41、M42、及び、M43)は縦列駐車モード内での各画像の遷移であり、ユーザの選択や車両操作に応じてこれらの画像が画像処理装置100から出力され、ディスプレイ21に表示される。
<1-5 parallel parking mode>
Below, the detail of the image of parallel parking mode M4 is demonstrated. FIG. 5 is a diagram for explaining the parallel parking mode M4 according to the first embodiment. When the parallel parking button 202 is selected by the user in the front mode M2, an image in the parallel parking mode M4 (hereinafter also referred to as “image M4”) is output from the image processing apparatus 100 and displayed on the display 21. In addition, each image (M4, M41, M42, and M43) in the parallel parking mode M4 described below is a transition of each image in the parallel parking mode, and these images are changed according to the user's selection and vehicle operation. Is output from the image processing apparatus 100 and displayed on the display 21.

画像M4は、合成画像CQ0の略中心に車両9の画像が表示されている。そして、車両9の先端部には左右方向に延びる線上のポイントの指標MAが表示されており、車両9の右前側方には位置する他車両19が表示されている。   In the image M4, the image of the vehicle 9 is displayed at the approximate center of the composite image CQ0. An indicator MA of points on a line extending in the left-right direction is displayed at the front end of the vehicle 9, and the other vehicle 19 located at the right front side of the vehicle 9 is displayed.

なお、指標MAは、車両9の右側には指標MR、車両9の左側には指標MLを備えており、車両9の進行に伴い車両9の同方向に移動する。つまり、合成画像CQ0では車両9の進行に伴い指標MA指標MR)が他車両19の後端部に接近している。このように合成画像CQ0はほぼ車両9及び車両9の周辺領域をほぼリアルタイムに表示する。   The index MA includes an index MR on the right side of the vehicle 9 and an index ML on the left side of the vehicle 9, and moves in the same direction of the vehicle 9 as the vehicle 9 travels. That is, in the composite image CQ0, the index MA index MR) approaches the rear end portion of the other vehicle 19 as the vehicle 9 advances. Thus, the composite image CQ0 displays the vehicle 9 and the surrounding area of the vehicle 9 almost in real time.

また、画像M4にはビットマップ画像の運転サポート画像PH0が表示されている。この運転サポート画像PH0は合成画像CQ0の俯瞰画像と関連付けて車両9のユーザに必要な運転操作の情報を表示する。   The image M4 displays a driving support image PH0 as a bitmap image. This driving support image PH0 displays information of driving operation necessary for the user of the vehicle 9 in association with the overhead image of the composite image CQ0.

そして、ユーザが目視で確認した車両9の駐車スペースの車両9の進行方向に沿った距離の計測を開始する場合、その計測を開始する位置を設定するために、ユーザは画像M4の地点設定ボタン204を選択する。なお、ユーザが戻るボタン203を選択すると前のモードであるフロントモードM2に遷移する。   And when starting the measurement of the distance along the advancing direction of the vehicle 9 of the parking space of the vehicle 9 which the user confirmed visually, in order to set the position which starts the measurement, a user sets the point setting button of the image M4. 204 is selected. When the user selects the return button 203, the mode changes to the front mode M2, which is the previous mode.

縦列駐車モードM4の画像M41以下、「画像M41」ともいう。)は、車両9を他車両19の方向に進行させて地点設定ボタン204をユーザが選択した場合の画像を示している。画像M41の合成画像CQ1では、車両9の指標MRが他車両19の先端部に位置している。このような位置でユーザが地点設定ボタン204を選択すると、指標MA(指標MRおよび指標ML)は、計測開始位置DAとして設定される。   Also referred to as “image M41” below the image M41 in the parallel parking mode M4. ) Shows an image when the vehicle 9 is advanced in the direction of the other vehicle 19 and the user selects the point setting button 204. In the composite image CQ1 of the image M41, the index MR of the vehicle 9 is located at the tip of the other vehicle 19. When the user selects the point setting button 204 at such a position, the index MA (index MR and index ML) is set as the measurement start position DA.

なお、この計測開始位置DAは、車両9の右側の計測開始位置を計測開始位置DR、車両9の左側の計測開始位置を計測開始位置DLを備えており、ユーザが選択した位置に指標MR及び指標MLが、計測開始位置DR及びDLとして固定される。これにより、ユーザは車両からの目視で確認できる駐車スペースと表示された俯瞰画像との関係を車両を移動させながら把握できると共に、ユーザが目視で確認した位置を確実に設定できる。また、ユーザは車両9の位置と計測開始位置DA及び計測位置BAとの位置を明確に把握できる。   The measurement start position DA includes the measurement start position DR on the right side of the vehicle 9 and the measurement start position DL on the left side of the vehicle 9. The measurement start position DA includes the index MR and the measurement start position DL. The index ML is fixed as the measurement start positions DR and DL. Thereby, while a user can grasp | ascertain the relationship between the parking space which can be visually confirmed from a vehicle, and the displayed bird's-eye view image while moving a vehicle, the position which the user confirmed visually can be set reliably. Further, the user can clearly grasp the position of the vehicle 9 and the positions of the measurement start position DA and the measurement position BA.

また、ユーザの地点設定ボタン204選択による計測開始位置の設置に伴い、車両9の後端部に計測位置BAが設定される。この計測位置BAは、車両9の右側に計測位置BR、車両9の左側に計測位置BLを備えている。この計測位置BAは車両9の進行に伴って車両9と同方向に移動する。また、画像M41では合成画像CQ1の俯瞰画像と関連付けて運転サポート画像PH1を表示する。なお、ユーザが戻るボタン203を操作すると計測開始位置の設定を解除して縦列駐車モードM4に遷移する。   Further, the measurement position BA is set at the rear end of the vehicle 9 with the installation of the measurement start position by the user's selection of the point setting button 204. The measurement position BA includes a measurement position BR on the right side of the vehicle 9 and a measurement position BL on the left side of the vehicle 9. This measurement position BA moves in the same direction as the vehicle 9 as the vehicle 9 travels. In addition, in the image M41, the driving support image PH1 is displayed in association with the overhead image of the composite image CQ1. Note that when the user operates the return button 203, the setting of the measurement start position is canceled and the state transits to the parallel parking mode M4.

画像M42は、合成画像CQ2で画像M41に示したユーザの操作による計測開始位置の設定に伴う計測位置BAが、車両9の進行後に伴って計測開始位置DAと接触した後に計測開始位置DAから離れた状態を示している。そして、計測位置BAが計測開始位置DAから離れたことで、駐車スペースの車両9の進行方向に沿った距離の計測を開始する。   The image M42 is separated from the measurement start position DA after the measurement position BA accompanying the setting of the measurement start position by the user operation shown in the image M41 in the composite image CQ2 comes into contact with the measurement start position DA as the vehicle 9 travels. Shows the state. And when measurement position BA leaves | separated from measurement start position DA, the measurement of the distance along the advancing direction of the vehicle 9 of a parking space is started.

つまり、車両9の右方向である他車両19の先端部の方向に延びる位置に固定された計測開始位置DRに、車両9の後端部の右方向に延びる線上の計測位置BRが接触して、計測開始位置DRから離れている。同時に、他車両19の先端部の左方向に延びる位置に固定された計測開始位置DLに、車両9の後端部の左方向に延びる線上の計測位置BLが接触した後、計測開始位置DLから離れている。そして、各計測位置が計測開始位置に接触して離れた直後に、距離の導出を開始する。   That is, the measurement position BR on the line extending in the right direction of the rear end portion of the vehicle 9 comes into contact with the measurement start position DR fixed to the position extending in the direction of the front end portion of the other vehicle 19 which is the right direction of the vehicle 9. , Away from the measurement start position DR. At the same time, after the measurement position BL on the line extending in the left direction at the rear end portion of the vehicle 9 comes into contact with the measurement start position DL fixed at the position extending in the left direction at the front end portion of the other vehicle 19, the measurement start position DL starts from the measurement start position DL. is seperated. And immediately after each measurement position contacts and leaves | separates a measurement start position, derivation | leading-out of distance is started.

距離を導出している際の画像表示としては図中に示すように計測開始位置DRと計測位置BRとを結ぶ距離ラインLR、計測開始位置DLと計測位置BLとを結ぶ距離ラインLLとで表示される。これにより、ユーザは駐車スペースの距離の導出タイミングを知ることができ、距離の導出開始後のステアリングの不要な操作をなくすことで、正確な距離の導出が可能となる。また、ユーザは車両9の位置と駐車スペースとの位置関係を明確に把握できる。   As shown in the figure, the image display when the distance is derived is displayed by a distance line LR connecting the measurement start position DR and the measurement position BR, and a distance line LL connecting the measurement start position DL and the measurement position BL. Is done. As a result, the user can know the timing for deriving the distance of the parking space, and it is possible to derive the accurate distance by eliminating an unnecessary operation of the steering after the start of the distance deriving. Further, the user can clearly grasp the positional relationship between the position of the vehicle 9 and the parking space.

また、画像M41は合成画像CQ2の俯瞰画像と関連付けて運転サポート画像PH1を表示する。なお、ユーザが戻るボタン203を操作すると計測開始位置の設定を解除して縦列駐車モードMAに遷移する。   The image M41 displays the driving support image PH1 in association with the overhead image of the composite image CQ2. Note that when the user operates the return button 203, the setting of the measurement start position is canceled and the mode is changed to the parallel parking mode MA.

画像M43は、合成画像CQ3で車両9の後端部の計測位置BAの位置と、他車両19の先端部の位置に固定した計測開始位置DAの位置との距離が予め定めた車両9の駐車に必要な距離以上となったことを示している。図中に示すように車両9の駐車に必要な距離になったことを示してユーザへ報知するために、距離ラインLR、LLの表示色を距離を計測中の場合と必要距離以上となった場合とで変更する。このような制御は、報知制御部14によりなされる。これにより、車両9の位置と駐車スペースとの位置関係を明確にして、駐車スペースの距離を精度よくユーザへ知らせることができる。この計測している距離が必要距離以上となったことのユーザへの報知は、画像表示や音声出力などによってなされてもよい。   The image M43 is the composite image CQ3, and the parking of the vehicle 9 in which the distance between the position of the measurement position BA at the rear end of the vehicle 9 and the position of the measurement start position DA fixed to the position of the front end of the other vehicle 19 is predetermined. This indicates that the required distance is exceeded. As shown in the figure, in order to notify the user that the distance required for parking the vehicle 9 has been reached, the display color of the distance lines LR and LL is greater than the required distance when the distance is being measured. Change with the case. Such control is performed by the notification control unit 14. Thereby, the positional relationship between the position of the vehicle 9 and the parking space can be clarified, and the distance of the parking space can be accurately notified to the user. The user may be notified that the measured distance is greater than or equal to the required distance by image display, audio output, or the like.

また、このように駐車スペースの車両9の進行方向に沿った距離が車両9の駐車に必要な距離となった場合は、ユーザは画像M43に表示されている車両位置確定ボタン205を操作して、駐車スペースの選択及び駐車動作を開始する。これにより、ユーザは駐車に必要な距離となった車両9の位置からすぐに駐車動作を開始できる。   In addition, when the distance along the traveling direction of the vehicle 9 in the parking space becomes the distance necessary for parking the vehicle 9, the user operates the vehicle position determination button 205 displayed in the image M43. The parking space selection and the parking operation are started. Thereby, the user can start a parking operation immediately from the position of the vehicle 9 that has become a distance necessary for parking.

なお、画像M43では合成画像CQ3の俯瞰画像と関連付けて運転サポート画像PH3を表示する。このように画像処理装置100は、各合成画像と関連付けて運転サポート画像を出力してディスプレイ21に表示することで、駐車に必要な距離を導出する場合にユーザが行う運転操作を合成画像と一緒に確認できる。また、画像M4、画像M41、画像M42、及び、画像M43では各合成画像と関連付けて表示する運転サポート画像に合わせて運転操作のポイントを文字で表示し、必要な運転操作を表示している。なお、ユーザが戻るボタン203を操作すると計測開始位置の設定を解除して縦列駐車モードM4に遷移する。   In addition, in the image M43, the driving support image PH3 is displayed in association with the overhead image of the composite image CQ3. As described above, the image processing apparatus 100 outputs a driving support image in association with each composite image and displays the driving support image on the display 21, thereby performing a driving operation performed by the user together with the composite image when deriving a distance necessary for parking. Can be confirmed. In addition, in the images M4, M41, M42, and M43, driving operation points are displayed in characters in accordance with driving support images displayed in association with the respective composite images, and necessary driving operations are displayed. Note that when the user operates the return button 203, the setting of the measurement start position is canceled and the state transits to the parallel parking mode M4.

<2.処理>
次に画像処理装置100の処理について説明する。図6は画像処理装置100の処理フローチャートである。画像処理装置100はユーザからの駐車支援ボタン201の操作信号を受信した場合(ステップS101がYes)、フロントモードM2の画像を出力してステップS103の処理へ進む。なお、画像処理装置100がユーザからの駐車支援ボタン201の操作信号を受信していない場合(ステップS101がNo)は、処理を終了する。
<2. Processing>
Next, processing of the image processing apparatus 100 will be described. FIG. 6 is a process flowchart of the image processing apparatus 100. When the image processing apparatus 100 receives an operation signal of the parking assistance button 201 from the user (Yes in step S101), the image processing apparatus 100 outputs an image of the front mode M2 and proceeds to the process of step S103. If the image processing apparatus 100 has not received an operation signal for the parking assistance button 201 from the user (No in step S101), the process ends.

ステップS103では、画像処理装置100がユーザからの縦列駐車ボタン202の操作信号を受信した場合(ステップS103がYes)、縦列駐車モードM4の画像を出力して(ステップS104)、ステップS105の処理へ進む。なお、縦列駐車ボタン202の操作信号を画像処理装置100が受信していない場合(ステップS103がNo)は、フロントモードM2の画像出力を継続する。   In step S103, when the image processing apparatus 100 receives an operation signal for the parallel parking button 202 from the user (step S103 is Yes), the image of the parallel parking mode M4 is output (step S104), and the process proceeds to step S105. move on. In addition, when the image processing apparatus 100 has not received the operation signal of the parallel parking button 202 (No in step S103), the image output in the front mode M2 is continued.

ステップS105では、ユーザの操作による指標MAを用いた計測開始位置DAの設定信号を画像処理装置100が受信している場合(ステップS105がYes)は、指標MAの地点を計測開始位置DAとして設定して(ステップS106)ステップS107の処理へ進む。   In step S105, when the image processing apparatus 100 has received a setting signal for the measurement start position DA using the index MA by the user's operation (Yes in step S105), the point of the index MA is set as the measurement start position DA. (Step S106), the process proceeds to Step S107.

なお、画像処理装置100が計測開始位置DAの設定信号を受信していない場合(ステップS105がNo)の場合は縦列駐車モードM4の画像を継続して表示する。なお、ユーザの操作に応じてフロントモードM2や縦列駐車モードM4などの他の画像に切り替えるようにしてもよい。   When the image processing apparatus 100 has not received the setting signal for the measurement start position DA (No in step S105), the image in the parallel parking mode M4 is continuously displayed. In addition, you may make it switch to other images, such as front mode M2 and parallel parking mode M4, according to a user's operation.

ステップS107では、ユーザの選択により計測開始位置を設定したことに伴い、車両9の特定部位に基づいて計測位置BAを出力するステップS107)。計測位置BAは、例えば車両9の後端部から車両9の左右方向に延びる線上のポイントを表示する指標である。   In step S107, the measurement position BA is output based on the specific part of the vehicle 9 when the measurement start position is set by the user's selection (step S107). The measurement position BA is an index for displaying a point on a line extending from the rear end of the vehicle 9 in the left-right direction of the vehicle 9, for example.

そして、画像処理装置100は、車両9の進行に伴い車両9の後端部に表示された計測位置BAがユーザの選択した地点に固定された計測開始位置DAと接触した後に、計測開始位置DAから離れたことを検出した場合(ステップS108がYes)に、計測開始位置DAから計測位置BA間の距離の計測を開始する(ステップS109)。   The image processing apparatus 100 then measures the measurement start position DA after the measurement position BA displayed at the rear end of the vehicle 9 comes into contact with the measurement start position DA fixed at the point selected by the user as the vehicle 9 travels. When it is detected that the user has left (Step S108 is Yes), measurement of the distance between the measurement start position DA and the measurement position BA is started (Step S109).

そして、更なる車両9の移動により、計測距離が所定の距離以上(例えば、車両9の全長の1.5倍以上)となった場合(ステップS110がYes)、画像処理装置100は、計測距離が所定の距離以上となったことを画像や音声でユーザへ報知して(ステップS111)、ステップS112の処理へ進む。   When the measurement distance becomes equal to or greater than a predetermined distance (for example, 1.5 times the total length of the vehicle 9) due to further movement of the vehicle 9 (Yes in step S110), the image processing apparatus 100 determines the measurement distance. Is notified to the user by image or sound (step S111), and the process proceeds to step S112.

なお、ステップS108において、計測位置BAが計測開始位置DAから離れたことを検出していない場合(ステップS108)は、距離の計測は開始せずに縦列駐車モードM4において、ほぼリアルタイムの画像を出力する。   In step S108, when it is not detected that the measurement position BA has moved away from the measurement start position DA (step S108), a near real-time image is output in the parallel parking mode M4 without starting the distance measurement. To do.

さらに、ステップS110において、計測距離が所定の距離以上となっていない場合は、距離の計測を継続して行う。なお、ユーザの操作に応じてフロントモードM2や縦列駐車モードM4などの他の画像に切り替えるようにしてもよい。   Furthermore, in step S110, when the measurement distance is not equal to or greater than the predetermined distance, the distance measurement is continuously performed. In addition, you may make it switch to other images, such as front mode M2 and parallel parking mode M4, according to a user's operation.

ステップS112の処理では、車両9の駐車に必要な距離となったことをユーザが確認して、ユーザが車両位置確定ボタン205を操作したことによる車両位置確定信号を画像処理装置100が受信した場合(ステップS113がYes)は、ユーザの操作により距離の計測が完了した領域を車両9の駐車領域として設定する駐車領域設定画像を出力する。   In the process of step S112, when the user confirms that the distance required for parking the vehicle 9 has been reached, and the image processing apparatus 100 receives a vehicle position confirmation signal when the user operates the vehicle position confirmation button 205 (Step S113 is Yes) outputs the parking area setting image which sets the area | region where the measurement of distance by the user's operation was completed as a parking area of the vehicle 9. FIG.

この駐車領域の設定は一辺が車両9の全長の約1.5倍の長さで、他辺が車両9の車幅の約1.2倍の長さを有する略長方形の領域をユーザの操作により車両9を駐車する駐車スペースの位置に設定する。なお、ステップ112において、画像処理装置100が車両位置確定信号を受信していない場合(ステップS112がNo)は、そのままの画像を表示する。なお、ユーザの操作に応じてフロントモードM2や縦列駐車モードM4などの他の画像に切り替えるようにしてもよい。   The parking area is set by a user operating a substantially rectangular area having one side that is about 1.5 times the total length of the vehicle 9 and the other side that is about 1.2 times the vehicle width of the vehicle 9. To set the parking space where the vehicle 9 is parked. In step 112, when the image processing apparatus 100 has not received the vehicle position determination signal (No in step S112), the image is displayed as it is. In addition, you may make it switch to other images, such as front mode M2 and parallel parking mode M4, according to a user's operation.

そして、ユーザが駐車領域を設定した旨の信号を画像処理装置100が受信した場合(ステップS114がYes)、画像処理装置は、画像や音声を用いてユーザが駐車スペースへ車両9を駐車する運転操作を支援する駐車支援画像を出力して(ステップS115)、ステップS116の処理へ進む。この駐車支援画像の例としては、車両を後退させる際のガイド線やステアリングを操作する位置や角度を指示するものである。   When the image processing apparatus 100 receives a signal indicating that the user has set the parking area (Yes in step S114), the image processing apparatus operates such that the user parks the vehicle 9 in the parking space using an image or sound. A parking assistance image for assisting the operation is output (step S115), and the process proceeds to step S116. As an example of this parking assistance image, a position and angle for operating a guide line and steering when the vehicle is moved backward are indicated.

なお、ステップS114において、ユーザの操作による駐車位置確定した旨の信号を画像処理装置100が受信していない場合(ステップS114がNo)は、そのままの画像を表示する。なお、ユーザの操作に応じてフロントモードM2や縦列駐車モードM4などの他の画像に切り替えるようにしてもよい。   In step S114, when the image processing apparatus 100 has not received a signal indicating that the parking position has been determined by the user's operation (No in step S114), the image is displayed as it is. In addition, you may make it switch to other images, such as front mode M2 and parallel parking mode M4, according to a user's operation.

ステップS116では、ユーザの駐車動作により車両9の車両全体がステップS114で設定した駐車領域内に移動した場合に、ナビゲーション装置20などからの車両9の一情報による駐車完了信号を画像処理装置100が受信した場合(ステップS116)、画像処理装置100は、駐車が完了したことを画像や音声によりユーザへ報知する(ステップS117)。   In step S116, when the entire vehicle 9 moves to the parking area set in step S114 due to the user's parking operation, the image processing apparatus 100 receives a parking completion signal based on one information of the vehicle 9 from the navigation device 20 or the like. When the image is received (step S116), the image processing apparatus 100 notifies the user that the parking has been completed by an image or sound (step S117).

なお、駐車完了信号を画像処理装置100が受信していない場合(ステップS116がNo)は、駐車支援画像の出力を継続する。なお、ユーザの操作に応じてフロントモードM2や縦列駐車モードM4などの他の画像に切り替えるようにしてもよい。   In addition, when the image processing apparatus 100 has not received the parking completion signal (step S116 is No), the output of the parking assistance image is continued. In addition, you may make it switch to other images, such as front mode M2 and parallel parking mode M4, according to a user's operation.

<第2の実施の形態>
次に、第2の実施の形態について説明する。第2の実施の形態の縦列駐車モードM5では、ユーザの操作により指標MAが計測開始位置DAとして設定された場合に、第1の実施の形態では車両9の後端部に位置していた計測位置BAを、車両9の先端部に設けている。第2の実施の形態の画像表示システム120の構成及び処理は、第1の実施の形態とほぼ同様であるが、一部相違する。このため以下、相違点を中心に説明する。
<Second Embodiment>
Next, a second embodiment will be described. In the parallel parking mode M5 of the second embodiment, when the index MA is set as the measurement start position DA by the user's operation, the measurement is located at the rear end portion of the vehicle 9 in the first embodiment. A position BA is provided at the tip of the vehicle 9. The configuration and processing of the image display system 120 of the second embodiment are substantially the same as those of the first embodiment, but are partly different. For this reason, the following description will focus on the differences.

図7は第2の実施の形態の縦列駐車モードM4aを説明する図である。なお、以下では縦列駐車モードM4a、M41a、M42a、M43aを画像M4a、画像41a、画像42a、及び、画像43aともいう。   FIG. 7 is a diagram for explaining the parallel parking mode M4a according to the second embodiment. Hereinafter, the parallel parking modes M4a, M41a, M42a, and M43a are also referred to as an image M4a, an image 41a, an image 42a, and an image 43a.

画像処理装置100は、フロントモードM2の縦列駐車ボタン202がユーザにより操作された信号を受信した場合、画像M4aを出力する。   The image processing apparatus 100 outputs the image M4a when the signal that the parallel parking button 202 in the front mode M2 is operated by the user is received.

画像M4aは、合成画像CQ10で指標MA(指標MR及びML)を車両9の先端部に表示し、車両9の進行に伴い指標MAは他車両19の方向に進行している。   The image M4a displays the index MA (index MR and ML) in the composite image CQ10 at the front end of the vehicle 9, and the index MA progresses in the direction of the other vehicle 19 as the vehicle 9 advances.

画像M41aは、合成画像CQ11で指標MAが他車両19の先端部に位置しており、ユーザが地点設定ボタン204を操作すると、指標MAは計測開始位置DAとしてその地点に固定される。   In the image M41a, the index MA is located at the tip of the other vehicle 19 in the composite image CQ11, and when the user operates the point setting button 204, the index MA is fixed at that point as the measurement start position DA.

また、ユーザの地点設定ボタン204の選択による計測開始位置の設定に伴い、車両9の先端部に計測位置BAaが設定される。なお、この計測位置BAaは車両9の右側の計測位置を計測位置BRa、車両9の左側の計測位置を計測位置BLaとして備える。この計測位置BAaは車両9の進行に伴って同方向に移動する。   Further, the measurement position BAa is set at the front end of the vehicle 9 in accordance with the setting of the measurement start position by the user's selection of the spot setting button 204. The measurement position BAa includes a measurement position on the right side of the vehicle 9 as a measurement position BRa and a measurement position on the left side of the vehicle 9 as a measurement position BLa. This measurement position BAa moves in the same direction as the vehicle 9 travels.

画像M42aは、合成画像CQ12でユーザの操作による計測開始位置DAの設定に伴う計測位置BAaが、車両9の進行に伴って計測開始位置DAと接触した後に計測開始位置DAから離れた状態を示している。そして、計測位置BAaが計測開始位置DAをから離れたことで、駐車スペースの車両9の進行方向に沿った距離の計測を開始する。   The image M42a shows a state in which the measurement position BAa accompanying the setting of the measurement start position DA by the user's operation in the composite image CQ12 is separated from the measurement start position DA after contacting the measurement start position DA as the vehicle 9 advances. ing. And the measurement of the distance along the advancing direction of the vehicle 9 of a parking space is started because measurement position BAa left | separated from measurement start position DA.

つまり、車両9の右方向である他車両19の先端部の方向に延びる位置に固定された計測開始位置DRに、車両9の先端部の右方向に延びる線上の計測位置BRaが接触して、計測開始位置DRから離れている。同時に、他車両19の先端部の左方向に延びる位置に固定された計測開始位置DLに、車両9の後端部の左方向に延びる線上の計測位置BLaが接触した後、計測開始位置DLから離れている。そして、各計測位置が計測開始位置に接触して離れた直後に、距離の導出を開始する。   That is, the measurement position BRa on the line extending in the right direction of the front end portion of the vehicle 9 comes into contact with the measurement start position DR fixed to the position extending in the direction of the front end portion of the other vehicle 19 which is the right direction of the vehicle 9. It is away from the measurement start position DR. At the same time, after the measurement position BLa on the line extending in the left direction at the rear end portion of the vehicle 9 comes into contact with the measurement start position DL fixed at the position extending in the left direction at the front end portion of the other vehicle 19, the measurement start position DL starts from the measurement start position DL. is seperated. And immediately after each measurement position contacts and leaves | separates a measurement start position, derivation | leading-out of distance is started.

距離を導出している際の画像表示としては図中に示すように計測開始位置DRと計測位置BRとを結ぶ距離ラインLRa、計測開始位置DLと計測位置BLとを結ぶ距離ラインLLaとで表示される。これにより、ユーザは距離を導出している間に、車両9の移動に伴って駐車スペースの状態を目視で確認できる。   As shown in the figure, the image display when the distance is derived is displayed by a distance line LRa connecting the measurement start position DR and the measurement position BR, and a distance line LLa connecting the measurement start position DL and the measurement position BL. Is done. Thereby, the user can visually confirm the state of the parking space as the vehicle 9 moves while deriving the distance.

画像43aでは、図中に示すように車両9の駐車に必要な距離になったことをユーザへ報知するために、距離ラインLRa、LLaの表示色を距離を計測中の場合と必要距離以上となった場合とで変更されている。
<変形例>
以下、変形例について説明する。なお、上記の実施の形態、及び、下記で説明する形態を含む全ての形態は適宜に組み合わせ可能である。
In the image 43a, as shown in the figure, in order to notify the user that the distance required for parking the vehicle 9 has been reached, the display color of the distance lines LRa and LLa is more than the required distance when the distance is being measured. It has changed in the case of becoming.
<Modification>
Hereinafter, modified examples will be described. In addition, all the forms including the above-described embodiment and the forms described below can be appropriately combined.

上記の実施の形態では、ユーザが車両9を駐車するスペースの距離を測定する場合について述べたが、駐車スペース以外に、ユーザの任意の区間の距離を測定することもできる。この場合、ユーザの操作によりナビゲーション装置20のディスプレイ21に表示される表示中に車両9の周辺領域におけるユーザの任意の区間の始点となる位置に第1基準位置を位置設定制御部12が設定をする。   In said embodiment, although the case where the user measured the distance of the space which parks the vehicle 9 was described, the distance of a user's arbitrary area can also be measured besides a parking space. In this case, the position setting control unit 12 sets the first reference position at the position that is the starting point of the user's arbitrary section in the peripheral area of the vehicle 9 during the display displayed on the display 21 of the navigation device 20 by the user's operation. To do.

次に、第1基準位置の設定に伴い、位置設定制御部12は車両9の特定部位に基づく第2基準位置を設定する。そして、距離導出制御部13が第1基準位置と第2基準位置との距離である第1距離を導出する。   Next, with the setting of the first reference position, the position setting control unit 12 sets the second reference position based on the specific part of the vehicle 9. Then, the distance derivation control unit 13 derives a first distance that is a distance between the first reference position and the second reference position.

次に、車両9の移動によって変化する第1距離に関する情報を報知制御部14が画像や音声により報知する。例えば、ユーザへの報知は車両9の移動によってディスプレイ21に距離の表示をするなどである。これにより、車両9のユーザが任意の位置からの距離の計測を行いたい場合に正確に計測することができる。   Next, the notification control unit 14 notifies the information related to the first distance that changes due to the movement of the vehicle 9 by an image or sound. For example, the notification to the user is a display of the distance on the display 21 by the movement of the vehicle 9. Thereby, when the user of the vehicle 9 wants to measure the distance from an arbitrary position, it can measure accurately.

上記の実施の形態では、縦列駐車の場合の処理について述べたが、これらの各実施の形態の内容を並列駐車の場合に適用することも可能である。   In the above embodiment, the processing in the case of parallel parking has been described, but the contents of these embodiments can also be applied in the case of parallel parking.

また、上記の実施の形態では車両9の先端部から左右方向に延びる線上の指標である指標MAは車両の右側の指標MRと車両の左側の指標MLについて述べたが、予めユーザの選択により車両9を駐車させる方向が右か左か決定されている場合は、ユーザが選択した方向に指標を表示する。つまり、ユーザの選択が右側の場合は車両右側の指標MRをディスプレイ21に表示し、ユーザの選択が左側の場合は指標MLをディスプレイ21に表示する。   In the above embodiment, the index MA, which is an index on the line extending in the left-right direction from the front end portion of the vehicle 9, has been described with respect to the index MR on the right side of the vehicle and the index ML on the left side of the vehicle. When it is determined whether the parking direction of the vehicle 9 is right or left, the index is displayed in the direction selected by the user. That is, the index MR on the right side of the vehicle is displayed on the display 21 when the user's selection is on the right side, and the index ML is displayed on the display 21 when the user's selection is on the left side.

さらに、ユーザにより車両9を駐車させる方向が選択された場合に表示される指標と同じ方向で計測開始位置を設定し、計測開始位置の設定に伴う計測位置も同じ方向に表示する。つまり、車両9の右側が選択された場合は指標MRを表示し、ユーザが指標MRの計測開始位置を設定すると、指標MRと同じ車両9の右側に計測開始位置DRを表示する。そして、計測開始位置設定に伴い、車両9の右側に計測位置BR(またはBRa)を表示して距離の計測を行う。   Furthermore, the measurement start position is set in the same direction as the index displayed when the user selects the direction in which the vehicle 9 is parked, and the measurement position associated with the setting of the measurement start position is also displayed in the same direction. That is, when the right side of the vehicle 9 is selected, the index MR is displayed, and when the user sets the measurement start position of the index MR, the measurement start position DR is displayed on the right side of the vehicle 9 that is the same as the index MR. Then, along with the measurement start position setting, the measurement position BR (or BRa) is displayed on the right side of the vehicle 9 to measure the distance.

さらに、車両9の左側が選択された場合は、指標MLを表示し、ユーザが指標MLの計測開始位置を設定すると、指標MLと同じ車両9の左側に計測開始位置DLを表示する。そして、計測開始位置設定に伴い、車両9の左側に計測位置BLaを表示して距離の計測を行う。   Furthermore, when the left side of the vehicle 9 is selected, the index ML is displayed, and when the user sets the measurement start position of the index ML, the measurement start position DL is displayed on the left side of the vehicle 9 that is the same as the index ML. Then, along with the measurement start position setting, the measurement position BLa is displayed on the left side of the vehicle 9 to measure the distance.

また、指標MAの位置は、ユーザの操作で車両9の先端部以外の位置に移動させて計測開始位置DAを設定することも可能である。   In addition, the position of the index MA can be moved to a position other than the front end portion of the vehicle 9 by the user's operation to set the measurement start position DA.

さらに、上記の実施の形態の俯瞰画像は複数のカメラの撮影画像により生成された合成画像以外に一のカメラにより生成された俯瞰画像であってもよい。   Furthermore, the bird's-eye view image of the above embodiment may be a bird's-eye view image generated by one camera other than a composite image generated by images taken by a plurality of cameras.

1・・・・制御部
3・・・・画像生成部
5・・・・撮影部
20・・・ナビゲーション装置
40・・・不揮発性メモリ
41・・・信号入力部
42・・・ナビ通信部
81・・・シフトセンサ
82・・・車速センサ
83・・・方向指示器
DESCRIPTION OF SYMBOLS 1 ... Control part 3 ... Image generation part 5 ... Imaging | photography part 20 ... Navigation apparatus 40 ... Non-volatile memory 41 ... Signal input part 42 ... Navigation communication part 81 ... Shift sensor 82 ... Vehicle speed sensor 83 ... Direction indicator

Claims (6)

車両に搭載される画像表示システムであって、
前記車両に配置されたカメラで得られる撮影画像から、前記車両及び前記車両の周辺領域を俯瞰した俯瞰画像を生成する生成手段と、
前記俯瞰画像を表示する表示手段と、
ユーザの操作に応じて特定される第1基準位置と、前記車両の特定部位に基づく第2基準位置とを、前記俯瞰画像の表示中に設定する設定手段と、
前記第1基準位置と前記第2基準位置との距離である第1距離を導出する導出手段と、
を備え、
前記表示手段は、前記第1基準位置と前記第2基準位置とを結び、前記車両の移動に伴う前記第1距離の変化に応じて長さが変わる線状のライン画像を表示し、前記車両の移動により前記第1距離が前記車両の駐車に必要な第2距離以上となった場合に、前記ライン画像の表示態様を変更すること、
を特徴とする画像表示システム。
An image display system mounted on a vehicle,
Generating means for generating a bird's-eye view image of the vehicle and a surrounding area of the vehicle from a captured image obtained by a camera disposed in the vehicle;
Display means for displaying the overhead image;
Setting means for setting a first reference position specified in accordance with a user operation and a second reference position based on a specific part of the vehicle during display of the overhead image;
Deriving means for deriving a first distance that is a distance between the first reference position and the second reference position;
With
The display means connects the first reference position and the second reference position, displays a linear line image whose length changes according to a change in the first distance accompanying the movement of the vehicle, and the vehicle Changing the display mode of the line image when the first distance is equal to or greater than the second distance required for parking the vehicle due to movement of
An image display system characterized by the above.
請求項1に記載の画像表示システムにおいて、
前記導出手段は、前記第1基準位置と前記第2基準位置とが同一位置となった後、前記車両の移動により前記第1基準位置と前記第2基準位置とが異なる位置となったときに、前記第1距離の導出を開始すること、
を特徴とする画像表示システム。
The image display system according to claim 1,
When the first reference position and the second reference position become the same position after the first reference position and the second reference position become the same position, the derivation means is configured to change the first reference position and the second reference position to a different position. Starting derivation of the first distance ;
An image display system characterized by the above.
請求項1または2に記載の画像表示システムにおいて、
前記表示手段は、前記第1基準位置を設定する場合に、前記車両の先端部から前記車両の左右方向に延びる線上のポイントを指標で表示すること、
を特徴とする画像表示システム。
The image display system according to claim 1 or 2,
The display means, when setting the first reference position, displaying a point on a line extending in the left-right direction of the vehicle from the front end portion of the vehicle as an index ;
An image display system characterized by the above.
請求項1乃至3のいずれかに記載の画像表示システムにおいて、
前記車両の特定部位は、前記車両の後端部および前記車両の先端部のいずれかであること、
を特徴とする画像表示システム。
The image display system according to any one of claims 1 to 3,
The specific part of the vehicle is one of a rear end portion of the vehicle and a front end portion of the vehicle ;
An image display system characterized by the above.
車両に搭載された表示装置に表示させる画像を生成する画像処理装置であって、
前記車両に配置されたカメラで得られる撮影画像から、前記車両及び前記車両の周辺領
域を俯瞰した俯瞰画像を生成する生成手段と、
前記俯瞰画像を前記表示装置に出力して表示させる出力手段と、
ユーザの操作に応じて特定される第1基準位置と、前記車両の特定部位に基づく第2基準位置とを、前記俯瞰画像の表示中に設定する設定手段と、
前記第1基準位置と前記第2基準位置との距離である第1距離を導出する導出手段と、
を備え、
前記出力手段は、前記第1基準位置と前記第2基準位置とを結び、前記車両の移動に伴う前記第1距離の変化に応じて長さが変わる線状のライン画像を出力し、前記車両の移動により前記第1距離が前記車両の駐車に必要な第2距離以上となった場合に、表示態様が変更された前記ライン画像を出力して表示させること、
を特徴とする画像処理装置
An image processing device for generating an image to be displayed on a display device mounted on a vehicle,
From the captured image obtained by the camera arranged in the vehicle, the vehicle and the surrounding area
Generating means for generating a bird's-eye view image overlooking the area;
Output means for outputting and displaying the overhead image on the display device;
Setting means for setting a first reference position specified in accordance with a user operation and a second reference position based on a specific part of the vehicle during display of the overhead image;
Deriving means for deriving a first distance that is a distance between the first reference position and the second reference position;
With
The output means connects the first reference position and the second reference position, outputs a linear line image whose length changes according to a change in the first distance accompanying the movement of the vehicle, and the vehicle When the first distance is equal to or greater than the second distance necessary for parking the vehicle due to movement of the vehicle, the line image in which the display mode is changed is output and displayed .
An image processing apparatus .
車両に搭載された表示装置に表示させる画像を生成する画像処理装置の画像表示方法であって、
(a)前記車両に配置されたカメラで得られる撮影画像から、前記車両及び前記車両の周辺領域を俯瞰した俯瞰画像を生成する工程と、
(b)前記俯瞰画像を前記表示装置に出力して表示させる工程と、
(c)ユーザの操作に応じて特定される第1基準位置と、前記車両の特定部位に基づく第2基準位置とを、前記俯瞰画像の表示中に設定する工程と、
(d)前記第1基準位置と前記第2基準位置との距離である第1距離を導出する工程と、
を備え、
前記工程(b)は、前記第1基準位置と前記第2基準位置とを結び、前記車両の移動に伴う前記第1距離の変化に応じて長さが変わる線状のライン画像を出力し、前記車両の移動により前記第1距離が前記車両の駐車に必要な第2距離以上となった場合に、表示態様が変更された前記ライン画像を出力して表示させること、
を特徴とする画像表示方法
An image display method of an image processing device for generating an image to be displayed on a display device mounted on a vehicle,
(A) from the captured image obtained by the camera placed on the vehicle, and generating an overhead image obtained by the overhead view of the vehicle and the peripheral area of the vehicle,
A step of displaying (b) outputting the overhead image on the display device,
(C) a step of setting a first reference position specified in accordance with a user operation and a second reference position based on the specific part of the vehicle during display of the overhead image;
And (d) deriving a first distance is a distance between the second reference position and the first reference position,
With
The step (b) connects the first reference position and the second reference position, and outputs a linear line image whose length changes according to a change in the first distance accompanying the movement of the vehicle , When the first distance is equal to or greater than a second distance necessary for parking the vehicle due to the movement of the vehicle, the line image in which the display mode is changed is output and displayed ;
An image display method characterized by the above.
JP2010191922A 2010-08-30 2010-08-30 Image display system, image processing apparatus, and image processing method Active JP5643028B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010191922A JP5643028B2 (en) 2010-08-30 2010-08-30 Image display system, image processing apparatus, and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010191922A JP5643028B2 (en) 2010-08-30 2010-08-30 Image display system, image processing apparatus, and image processing method

Publications (2)

Publication Number Publication Date
JP2012046125A JP2012046125A (en) 2012-03-08
JP5643028B2 true JP5643028B2 (en) 2014-12-17

Family

ID=45901508

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010191922A Active JP5643028B2 (en) 2010-08-30 2010-08-30 Image display system, image processing apparatus, and image processing method

Country Status (1)

Country Link
JP (1) JP5643028B2 (en)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003252151A (en) * 2002-03-06 2003-09-10 Auto Network Gijutsu Kenkyusho:Kk Parking support system
JP2004314781A (en) * 2003-04-16 2004-11-11 Yazaki Corp Parking support device
JP4039321B2 (en) * 2003-06-18 2008-01-30 株式会社デンソー Peripheral display device for vehicle
JP2007091046A (en) * 2005-09-29 2007-04-12 Clarion Co Ltd Vehicle parking assisting device
JP2007091047A (en) * 2005-09-29 2007-04-12 Clarion Co Ltd Vehicle parking assisting device
JP2008275380A (en) * 2007-04-26 2008-11-13 Toyota Motor Corp Vehicle periphery monitoring device
JP2010069916A (en) * 2008-09-16 2010-04-02 Honda Motor Co Ltd Vehicle maneuver assistance device

Also Published As

Publication number Publication date
JP2012046125A (en) 2012-03-08

Similar Documents

Publication Publication Date Title
JP5341789B2 (en) Parameter acquisition apparatus, parameter acquisition system, parameter acquisition method, and program
JP5743652B2 (en) Image display system, image generation apparatus, and image generation method
JP5302227B2 (en) Image processing apparatus, image processing system, and image processing method
JP5087051B2 (en) Image generating apparatus and image display system
JP5681569B2 (en) Information processing system, server device, and in-vehicle device
JP5765995B2 (en) Image display system
JP2012073836A (en) Image display system, image processing apparatus, and image display method
WO2011010346A1 (en) Driving support device
JP5914114B2 (en) Parking assistance device and parking assistance method
US20120127312A1 (en) Vehicle periphery image generation apparatus
EP1803602A1 (en) Driving assist method and driving assist apparatus
JP2007116377A (en) Parking assist method and parking assist apparatus
JP6760122B2 (en) Peripheral monitoring device
JP2011135253A (en) Image processor, image processing system and image processing method
JP2012076551A (en) Parking support device, parking support method, and parking support system
JP2011131678A (en) Image processing device, image processing system and image processing method
JP2009171129A (en) Parking support device for vehicle and image display method
JP2012046124A (en) Image display system, image processing device and image display method
US20200317267A1 (en) Parking assistance device
JP5479639B2 (en) Image processing apparatus, image processing system, and image processing method
JP5651491B2 (en) Image display system, image display apparatus, and image display method
JP5643028B2 (en) Image display system, image processing apparatus, and image processing method
JP5677168B2 (en) Image display system, image generation apparatus, and image generation method
JP4457664B2 (en) Parking assistance device
JP2012061954A (en) Image display system, image processing device and image display method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130621

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140325

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140826

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140925

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141021

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141030

R150 Certificate of patent or registration of utility model

Ref document number: 5643028

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250