JP4329525B2 - Outside-vehicle information display device - Google Patents

Outside-vehicle information display device Download PDF

Info

Publication number
JP4329525B2
JP4329525B2 JP2003418545A JP2003418545A JP4329525B2 JP 4329525 B2 JP4329525 B2 JP 4329525B2 JP 2003418545 A JP2003418545 A JP 2003418545A JP 2003418545 A JP2003418545 A JP 2003418545A JP 4329525 B2 JP4329525 B2 JP 4329525B2
Authority
JP
Japan
Prior art keywords
image
display
vehicle
display device
viewpoint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003418545A
Other languages
Japanese (ja)
Other versions
JP2005184142A (en
Inventor
俊宏 森
誠一 鈴木
敦 佐藤
英夫 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Equos Research Co Ltd
Original Assignee
Equos Research Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Equos Research Co Ltd filed Critical Equos Research Co Ltd
Priority to JP2003418545A priority Critical patent/JP4329525B2/en
Publication of JP2005184142A publication Critical patent/JP2005184142A/en
Application granted granted Critical
Publication of JP4329525B2 publication Critical patent/JP4329525B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

この発明は、車両に搭載された画像表示装置に係り、詳しくは、車体の透過画像を表示する車外情報表示装置に関するものである。   The present invention relates to an image display device mounted on a vehicle, and more particularly to an outside information display device that displays a transmission image of a vehicle body.

従来、自動車の運転者が、車両の周囲を視認する際、車体自体の影となって視覚が遮られ、認識できない死角領域が、車両の周囲に存在する。従来では、運転操作の補助として死角領域をカメラ等の画像取得機器で取得し、画像を車内のモニターに映し出す構成が提案されている。例えば、車両後尾に、車両の後尾に近接した領域を映し出すカメラを設置し、後退時には自動的に車内モニターに後方の撮影画像が映し出される構成などが提案されている。
特開2002−262280
2. Description of the Related Art Conventionally, when a driver of an automobile visually recognizes the surroundings of a vehicle, there is a blind spot area around the vehicle that is unrecognizable because the vision is blocked by the shadow of the vehicle body. Conventionally, a configuration has been proposed in which a blind spot area is acquired by an image acquisition device such as a camera as an assisting driving operation and an image is displayed on a monitor in a vehicle. For example, a configuration has been proposed in which a camera that displays an area close to the rear of the vehicle is installed at the rear of the vehicle, and a rear captured image is automatically displayed on the in-vehicle monitor when the vehicle moves backward.
JP2002-262280

特許文献1に代表されるように、画像が映し出されるモニターは、車両側に固定されている。このため、肉眼で確認したい方向と、モニターの設置位置が一致しない場合には、肉眼で車外を確認し、かつモニターに顔を向けて死角領域を確認するといった煩わしい動作を行う必要がある。   As represented by Patent Document 1, a monitor on which an image is projected is fixed to the vehicle side. For this reason, when the direction to be confirmed with the naked eye does not coincide with the installation position of the monitor, it is necessary to perform troublesome operations such as confirming the outside of the vehicle with the naked eye and checking the blind spot area with the face facing the monitor.

例えば、車両後方の死角領域を映し出すバックモニターでは、後退時に後方を肉眼で確認するために、顔をバックシートの方向へ向けつつ操舵するとともに、死角領域の確認をする際には、運転席の前方に配置されたモニターを見る必要がある。この様に、後退時には、顔を前後に頻繁に向き直らせなければならず、かえって操作がやりづらくなるといった問題がある。   For example, in a back monitor that displays the blind spot area behind the vehicle, the steering is performed with the face facing the back seat in order to check the rear with the naked eye when reversing, and when checking the blind spot area, You need to look at the monitor placed in front. In this way, when retreating, there is a problem that the face must be frequently turned back and forth, which makes the operation difficult.

また、従来の装置ではモニターは固定されているので、運転者が見たいところを見るためには、本体やリモコンに設置されたジョイスティックやタッチパネル装置を用いてメニュー画面からカメラを切り替え、或は、カメラをパン・チルトさせるといった手段を取っていた。運転者はこれらの手段により、カメラ画像をスクロールさせ、或は、カメラ画像の切り替えを行う必要があり、運転者にとっては大変煩わしいものであった。   In addition, since the monitor is fixed in the conventional device, in order to see what the driver wants to see, the camera is switched from the menu screen using a joystick or touch panel device installed on the main body or remote control, or I took measures such as panning and tilting the camera. The driver needs to scroll the camera image or switch the camera image by these means, which is very troublesome for the driver.

この発明は、任意の方向の車外状況を、使用者の視点位置から見た画像として、使用者の視線上に表示できる車外情報表示装置を提供することを目的とする。   An object of the present invention is to provide a vehicle information display device that can display a vehicle exterior situation in an arbitrary direction on the user's line of sight as an image viewed from the user's viewpoint position.

以上のような問題を解決する本発明は、以下のような構成を有する。
(1) 車両の周囲を撮像する撮像手段と、
画像表示面を有するディスプレイと、
予め定められた起点と前記ディスプレイとの位置関係を検出する位置検出手段と、
前記撮像手段によって撮像された画像から、前記位置検出手段により検出した位置関係に基づき、基準点からディスプレイ方向へ向かう線の延長線上に存在する車両周囲の画像を、抽出する画像抽出手段と、
前記画像抽出手段に基づいて抽出された画像を前記ディスプレイに表示する表示手段と、を有することを特徴とする車外情報表示装置。
The present invention for solving the above problems has the following configuration.
(1) imaging means for imaging the surroundings of the vehicle;
A display having an image display surface;
Position detecting means for detecting a positional relationship between a predetermined starting point and the display;
Image extracting means for extracting an image around the vehicle existing on an extension line of a line from the reference point toward the display direction based on the positional relationship detected by the position detecting means from the image picked up by the image pickup means;
An outside information display device comprising: display means for displaying an image extracted based on the image extraction means on the display.

(2)前記基準点は、運転者の視点位置を仮想的に想定した位置であることを特徴とする上記(1)に記載の車外情報表示装置。 (2) The vehicle exterior information display device according to (1), wherein the reference point is a position virtually assuming a driver's viewpoint position.

(3)前記起点は、前記ディスプレイの保持位置であることを特徴とする上記(1)又は(2)に記載の車外情報表示装置。 (3) The vehicle outside information display device according to ( 1) or ( 2), wherein the starting point is a holding position of the display.

(4) 車両の周囲を撮像する撮像手段と、
画像表示面を有するディスプレイと、
予め定められた起点に対する前記ディスプレイの位置関係を検出する位置検出手段と、
前記位置検出手段によって検出された位置関係に基づき、前記ディスプレイを使用している使用者の視点位置を特定する視点位置特定手段と、
前記視点位置特定手段によって特定された視点とディスプレイの位置から、視点から前記ディスプレイへ向かう方向を検出する方向検出手段と、
前記撮像手段によって撮像された画像から、前記方向検出手段によって検出された方向に対応する車両周囲の画像を抽出する画像抽出手段と、
前記画像抽出手段に基づいて抽出された画像を前記ディスプレイに表示する表示手段とを有することを特徴とする車外情報表示装置。
(4) imaging means for imaging the surroundings of the vehicle;
A display having an image display surface;
Position detecting means for detecting a positional relationship of the display with respect to a predetermined starting point;
Viewpoint position specifying means for specifying the viewpoint position of the user using the display based on the positional relationship detected by the position detecting means;
Direction detecting means for detecting a direction from the viewpoint toward the display from the viewpoint specified by the viewpoint position specifying means and the position of the display;
Image extracting means for extracting an image around the vehicle corresponding to the direction detected by the direction detecting means from the image taken by the imaging means;
A vehicle outside information display device comprising: display means for displaying an image extracted based on the image extraction means on the display.

(5) 前記視点位置から、位置特定された前記ディスプレイの位置する方向を視認した場合の画像に、前記画像抽出手段によって抽出した画像を視点変換処理する視点変換手段とを有する上記(2)又は(4)に記載の車外情報表示装置。   (5) The above-described (2) or (2), further comprising: viewpoint conversion means for performing viewpoint conversion processing on the image extracted by the image extraction means to an image when the position of the display where the position is specified is visually recognized from the viewpoint position. (4) The vehicle information display device according to (4).

(6) 車両内における前記ディスプレイ表示面の傾き及び回転角を検出する角度検出手段と、を備え、
前記画像抽出手段は、さらに、前記角度検出手段により検出された角度に基づき抽出することを特徴とする上記(1)又は上記(4)に記載の車外情報表示装置。
(6) an angle detection means for detecting an inclination and a rotation angle of the display surface in the vehicle,
The vehicle information display apparatus according to (1) or (4), wherein the image extraction unit further extracts the image based on the angle detected by the angle detection unit.

(7) 車両の輪郭を記憶する車両情報記憶手段と、
前記車両情報記憶手段に記憶されている車両の輪郭情報に基づき、視点位置から視認した場合の車両輪郭を形成する輪郭形成手段と、
前記輪郭形成手段によって形成された車両の輪郭を前記表示手段に表示される画像に合成する画像合成手段とを有する上記(1)〜(6)のいずれか1に記載の車外情報表示装置。
(7) vehicle information storage means for storing the contour of the vehicle;
Contour forming means for forming a vehicle contour when viewed from a viewpoint position based on vehicle contour information stored in the vehicle information storage means;
The vehicle exterior information display device according to any one of the above (1) to (6), further comprising: an image synthesis unit that synthesizes the contour of the vehicle formed by the contour formation unit with an image displayed on the display unit.

(8) 前記撮像手段は、異なる方向へ向けて複数設けられており、
視点位置から前記ディスプレイの位置へ向かう線と、撮像手段の光軸との成す角度が最も小さい方向の撮像手段を、前記複数の撮像手段から1つ選択する選択
手段を有し、
前記画像抽出手段は、該選択された撮像手段が取得した画像から画像を抽出する上記(1)〜(7)のいずれか1に記載の車外情報表示装置。
(8) A plurality of the imaging means are provided in different directions,
A selection unit that selects one of the plurality of imaging units, the imaging unit in a direction in which the angle formed by the line from the viewpoint position to the display position and the optical axis of the imaging unit is the smallest,
The vehicle information display device according to any one of (1) to (7), wherein the image extraction unit extracts an image from an image acquired by the selected imaging unit.

(9) 車両の周囲を撮像する撮像手段と、
画像表示面を有するディスプレイと、
前記ディスプレイ表示面の傾き及び回転角を検出する角度検出手段と、
前記角度検出手段により検出したディスプレイの傾き及び回転角に基づき、前記撮像手段によって撮像された画像から、この表示面の裏面に対向する画像を抽出する画像抽出手段と、
前記画像抽出手段に基づいて抽出された画像を前記表示手段に表示する表示手段とを有することを特徴とする車外情報表示装置。
(9) imaging means for imaging the surroundings of the vehicle;
A display having an image display surface;
Angle detection means for detecting the tilt and rotation angle of the display surface;
Image extracting means for extracting an image facing the back surface of the display surface from the image captured by the imaging means based on the tilt and rotation angle of the display detected by the angle detecting means;
An outside information display device comprising: display means for displaying an image extracted based on the image extraction means on the display means.

請求項1に記載の発明によれば、基準点を起点としてディスプレイ方向の延長線上に存在する車両周囲の画像がディスプレイに写し出されるので、車両の陰になって死角となる領域の状況を正確に把握することができる。
請求項2に記載の発明によれば、基準点を、運転者の視点位置を仮想的に想定した位置とすることによって、表示されている画像の向きと、使用者が向いている向きが合致し、あたかも画面に車両の透視画像が表示されるように認識でき、使用者の方向感覚や距離感覚に合致した画像を表示することができる。
According to the first aspect of the present invention, since the image around the vehicle existing on the extended line in the display direction is displayed on the display starting from the reference point, the situation of the area that becomes the blind spot behind the vehicle is accurately determined. I can grasp it.
According to the invention described in claim 2, by setting the reference point to a position virtually assuming the driver's viewpoint position, the orientation of the displayed image matches the orientation of the user. In addition, it can be recognized as if a perspective image of the vehicle is displayed on the screen, and an image that matches the sense of direction and distance of the user can be displayed.

請求項3に記載の発明によれば、通常ディスプレイが保持されている保持位置を起点とし、基準点及び視点位置が規定されるので、座標表示が簡単となり、基準点や視点位置の算出が容易となる。
請求項4に記載の発明によれば、起点を基準にして、起点に対するディスプレイの相対位置が規定され、規定された相対位置に基づき視点位置が特定され、その後、視点位置からディスプレイへ向かう方向を検出する。視点位置からディスプレイへ向かう方向の車両周囲画像が抽出されるので、使用者がディスプレイを見ている視線方向の死角領域がディスプレイに表示されることとなる。このため、表示されている画像の内容について、使用者の位置している場所からの相対位置が感覚的に把握し易い。
According to the third aspect of the present invention, since the reference point and the viewpoint position are defined starting from the holding position where the normal display is held, the coordinate display becomes simple and the reference point and the viewpoint position can be easily calculated. It becomes.
According to the fourth aspect of the invention, the relative position of the display with respect to the starting point is defined based on the starting point, the viewpoint position is specified based on the specified relative position, and then the direction from the viewpoint position toward the display is determined. To detect. Since the vehicle surrounding image in the direction from the viewpoint position toward the display is extracted, the blind spot area in the line-of-sight direction in which the user is looking at the display is displayed on the display. For this reason, it is easy to sensuously grasp the relative position from the location where the user is located about the contents of the displayed image.

請求項5に記載の発明によれば、撮像手段が取得した画像を、その画像を映した撮像手段の位置から使用者の視点位置に変換し、その変換画像をディスプレイに変換するので、ディスプレイに表示されている画像が、あたかも車両の車体を透過して映し出されているように認識することができ、実際に肉眼で視認した場合に近いに感覚で車両周囲の状況を視覚的に把握することができる。   According to the fifth aspect of the present invention, the image acquired by the imaging unit is converted from the position of the imaging unit that displayed the image into the viewpoint position of the user, and the converted image is converted to a display. The displayed image can be recognized as if it has been projected through the vehicle body, and the situation around the vehicle can be visually grasped as if it were actually viewed with the naked eye. Can do.

請求項6に記載の発明によれば、ディスプレイ表示面の傾きや回転角に基づき抽出する画像を決定するので、使用者がディスプレイの傾きや回転角を操作して、任意の方向の車体透過画像をディスプレイに写し出すことができる。
請求項7に記載の発明によれば、車両の輪郭が画像に合成して表示されるため、ディスプレイに表示された車両周囲の状況と車両との位置関係が把握し易い。
According to the sixth aspect of the present invention, since the image to be extracted is determined based on the tilt and rotation angle of the display surface, the user operates the tilt and rotation angle of the display, and the vehicle body transmission image in an arbitrary direction. Can be displayed on the display.
According to the seventh aspect of the present invention, since the outline of the vehicle is combined with the image and displayed, it is easy to grasp the positional relationship between the situation around the vehicle displayed on the display and the vehicle.

請求項8に記載の発明によれば、視点位置からディスプレイに向かう視線の方向に最も近い方向に向いている撮像手段を選択し、その撮像手段の画像を用いるので、画像処理が容易で、画像処理によって生じる画像の歪みも抑制することができる。
請求項9に記載の発明によれば、画像表示面の傾きや回転角に基づき抽出する画像を決定するので、使用者がディスプレイの傾きや回転角を操作して、視点位置とディスプレイの位置関係を換えることなく、任意の方向の車体透過画像をディスプレイに写し出すことができる。
According to the eighth aspect of the present invention, since the image pickup unit that is directed in the direction closest to the direction of the line of sight from the viewpoint position toward the display is selected and the image of the image pickup unit is used, image processing is easy, Image distortion caused by processing can also be suppressed.
According to the ninth aspect of the present invention, since the image to be extracted is determined based on the tilt or rotation angle of the image display surface, the user operates the tilt or rotation angle of the display, and the positional relationship between the viewpoint position and the display. Without changing, the transmission image of the vehicle body in any direction can be projected on the display.

次にこの発明の車外情報表示装置1の好適実施形態について説明する。本発明の車外情報表示装置1は、自動車に搭載され、画像取得装置1Aと画像表示装置1Bとを有している。図1は、画像取得装置1Aの構成を示すブロック図である。画像取得装置1Aは、車両2に取り付けられ車両の周囲を撮像する撮像手段である複数のカメラ3F〜3Bと、画像処理等の演算及び制御を行う演算処理装置4Aと、メモリ5Aと、画像表示装置1Bとの通信を行う通信装置61Aと、画像表示装置1Bの接続を行う接続部62Aと、これらの装置の通信を媒体するシステムバス11Aとを備えている。   Next, a preferred embodiment of the vehicle exterior information display device 1 of the present invention will be described. The vehicle exterior information display device 1 of the present invention is mounted on an automobile and includes an image acquisition device 1A and an image display device 1B. FIG. 1 is a block diagram showing the configuration of the image acquisition device 1A. The image acquisition device 1A includes a plurality of cameras 3F to 3B, which are imaging units that are attached to the vehicle 2 and image the surroundings of the vehicle, an arithmetic processing device 4A that performs arithmetic and control operations such as image processing, a memory 5A, and an image display A communication device 61A that communicates with the device 1B, a connection unit 62A that connects the image display device 1B, and a system bus 11A that mediates communication of these devices are provided.

カメラ3F、3R、3L、3Bは、図2に示されているように、車両10の側面に、外側に向けて設けられている。車両10において、カメラ3Fは車体前部中央に、カメラ3Bは、車体後部中央に、カメラ3Rは、車体右側面運転席側方に、カメラ3Lは、車体左側面運転席側方にそれぞれ設けられている。本実施形態での各カメラは、魚眼レンズであり、180°の画角を有している。側面に設けられたカメラ3R、3Lは、車体の中央部でなく、運転席の側方に設けられている。これは、本装置を使用するのは運転者であることが多いので、カメラ3R、3Lの撮影位置を、使用者(運転者)の視点位置に近づけるために、そのような位置としている。後述する視点変換処理をする際に、変換処理の負担が軽減されるとともに、変換後の画像の歪みも抑えることができるからである。   As shown in FIG. 2, the cameras 3F, 3R, 3L, and 3B are provided on the side surface of the vehicle 10 toward the outside. In the vehicle 10, the camera 3F is provided at the center of the front of the vehicle body, the camera 3B is provided at the center of the rear of the vehicle body, the camera 3R is provided at the side of the driver's right side of the vehicle, and the camera 3L is provided at the side of the driver's left side of the vehicle. ing. Each camera in the present embodiment is a fisheye lens and has an angle of view of 180 °. The cameras 3R and 3L provided on the side surfaces are provided not on the center of the vehicle body but on the side of the driver's seat. This is because it is often the driver who uses the apparatus, and is set to such a position in order to bring the photographing positions of the cameras 3R and 3L closer to the viewpoint position of the user (driver). This is because, when performing viewpoint conversion processing described later, the burden of the conversion processing is reduced and distortion of the image after conversion can be suppressed.

カメラ3F、3R、3L、3Bは、それぞれ魚眼レンズを用いており、例えばCCD(Charge-Coupled Devices)により、光(画像)信号を電気信号に変換する構成を備えている。それぞれのカメラ3F、3R、3L、3Bは、A/D変換
器31F、31R、31L、31Bを介してシステムバス11Aに各々接続される。カメラ3Fは、車両10の前方にレンズの光軸を向け、その周囲の景色を画像として取得する。カメラ3Rは、車両10の右側方にレンズの光軸を向け、その周囲の景色を画像として取得する。カメラ3Lは、車両10の左側方にレンズの光軸を向け、その周囲の景色を画像として取得する。カメラ3Bは、車両10の後方にレンズの光軸を向け、その周囲の景色を画像として取得する。
Each of the cameras 3F, 3R, 3L, and 3B uses a fish-eye lens, and has a configuration that converts a light (image) signal into an electrical signal using, for example, a CCD (Charge-Coupled Devices). The cameras 3F, 3R, 3L, and 3B are connected to the system bus 11A via A / D converters 31F, 31R, 31L, and 31B, respectively. The camera 3F directs the optical axis of the lens in front of the vehicle 10 and acquires the surrounding scenery as an image. The camera 3R directs the optical axis of the lens to the right side of the vehicle 10 and acquires the surrounding scenery as an image. The camera 3L directs the optical axis of the lens toward the left side of the vehicle 10 and acquires the surrounding scenery as an image. The camera 3B directs the optical axis of the lens to the rear of the vehicle 10 and acquires the surrounding scenery as an image.

各カメラ3F、3R、3L、3Bから出力された画像信号は、A/D変換器31F、31R、31L、31Bによって、それぞれデジタル信号に変換される。
また、接続されたカメラ3F、3R、3L、3Bが、デジタル信号出力が可能なものである場合には、A/D変換器31F、31R、31L、31Bには不要である。なお、本実施形態では、上述のように、撮像手段は、魚眼レンズを用いたカメラ4つを有しているが、車両の周囲360°の画像を取得できれば、どのようなカメラを用いても構わない。例えば、5つ以上の複数のカメラを、車両の外側に向けて設置してもよく、また、360°の画像を取得できるカメラを1つ用いてもよい。
Image signals output from the cameras 3F, 3R, 3L, and 3B are converted into digital signals by A / D converters 31F, 31R, 31L, and 31B, respectively.
Further, when the connected cameras 3F, 3R, 3L, and 3B can output digital signals, they are not necessary for the A / D converters 31F, 31R, 31L, and 31B. In the present embodiment, as described above, the imaging unit has four cameras using fisheye lenses, but any camera may be used as long as an image of 360 ° around the vehicle can be acquired. Absent. For example, a plurality of five or more cameras may be installed toward the outside of the vehicle, and one camera that can acquire 360 ° images may be used.

演算処理装置4Aは、中央処理装置[CPU(Central Processing Unit)
]41Aと、リードオンリーメモリ[ROM]42Aと、ランダムアクセスメモリ[RAM]43Aとを備えている。中央処理装置41は、例えば、画像取込装置1Aと、画像表示装置1Bとの相対位置を演算し、或は、各カメラから取得された画像に基づいて、車体10周囲の360°画像を合成し、或は、合成した画像から画像表示装置1Bへ送る画像を切り取り(抽出し)、また、切り取った画像を使用者の視点位置に視点変換し、切り取った画像に、車両の輪郭を合成する、或は画像表示装置1Bとのデータの送受信などの処理及び演算を行う。
ROM42には、例えば、中央処理装置41が画像処理を行うためのソフトウエア等が格納されており、RAM43は、例えば、各種画像処理等を行う場としてのワーキングエリアとして使用される。
The arithmetic processing unit 4A is a central processing unit [CPU (Central Processing Unit).
] 41A, read only memory [ROM] 42A, and random access memory [RAM] 43A. For example, the central processing unit 41 calculates a relative position between the image capturing device 1A and the image display device 1B, or synthesizes a 360 ° image around the vehicle body 10 based on images acquired from the cameras. Alternatively, an image to be sent to the image display device 1B is cut out (extracted) from the combined image, and the cut image is converted into the viewpoint position of the user, and the contour of the vehicle is combined with the cut image. Alternatively, processing and calculation such as data transmission / reception with the image display device 1B are performed.
The ROM 42 stores, for example, software for the central processing unit 41 to perform image processing, and the RAM 43 is used as a working area as a place for performing various image processing, for example.

メモリ5Aは、各カメラ3F、3R、3L、3Bが撮影した画像を経時的に連続してそれぞれ記録するカメラ画像バッファ51F、51R、51L、51Bと、描画用画像バッファ52と、画像処理情報メモリ53と、車両情報記憶手段である車体データメモリ54と、ワークメモリ55とを備えている。   The memory 5A includes camera image buffers 51F, 51R, 51L, and 51B that continuously record images taken by the cameras 3F, 3R, 3L, and 3B over time, a drawing image buffer 52, and an image processing information memory. 53, a vehicle body data memory 54 serving as vehicle information storage means, and a work memory 55.

描画用画像バッファ52には、カメラ画像に画像処理を施して生成した画像が保存される。画像処理情報メモリ53には、視点変換、歪み補正、合成等画像処理を実行するために必要な変数が保存される。例えば、GUIで構成されたメニュー画面等を介して設定値の入力や変更は適宜可能となっている。車体データメモリ54には、表示画像に重ねて、車体透過イメージを作るために必要な輪郭情報が格納されている。輪郭情報には、車体の輪郭やタイヤ位置等を表現した3Dモデリングデータまたは3Dに見えるように描かれたビットマップデータなどが保存されている。この車体データメモリ54に保存されるデータには、カメラ画像または画像処理後のカメラ画像と合成するために使用するマスクデータも含まれる。   The drawing image buffer 52 stores an image generated by performing image processing on the camera image. The image processing information memory 53 stores variables necessary for executing image processing such as viewpoint conversion, distortion correction, and composition. For example, setting values can be input and changed as appropriate via a menu screen configured with a GUI. The vehicle body data memory 54 stores contour information necessary for creating a vehicle body transmission image superimposed on the display image. In the contour information, 3D modeling data representing the contour of the vehicle body, the tire position, etc., or bitmap data drawn so as to be visible in 3D are stored. The data stored in the vehicle body data memory 54 includes mask data used for combining with a camera image or a camera image after image processing.

通信装置61Aは、画像表示装置1Bからのセンサデータ受信、画像表示装置1Bへの描画用画像データ送信を行う。通信手段としては、有線と無線があるが、無線の場合は、無線LAN(IEEE802.11a/b/g)、Bluetoo
th、赤外線(IrDA)、小電力FMトランスミッター、UWB(Ultra Wide Band)、スペクトラム拡散(SS)等が考えられる。
The communication device 61A receives sensor data from the image display device 1B and transmits drawing image data to the image display device 1B. As communication means, there are wired and wireless, but in the case of wireless, wireless LAN (IEEE802.11a / b / g), Bluetooth,
th, Infrared (IrDA), low power FM transmitter, UWB (Ultra Wide Band), spread spectrum (SS), etc. are conceivable.

接続部62Aは、接続端子を備え、画像表示装置1Bの接続部62Bに設けられた接続端子と接続するものである。画像表示装置1Bの接続部62Bと接続することによって、通信装置61Aと同様の作用をする。この接続部62Aは、例えば、画像表示装置1Bと接続するための保持位置として機能する。   62 A of connection parts are provided with a connection terminal and connect with the connection terminal provided in the connection part 62B of the image display apparatus 1B. By connecting to the connection unit 62B of the image display device 1B, the same operation as that of the communication device 61A is performed. The connecting portion 62A functions as a holding position for connecting to the image display device 1B, for example.

一方、画像表示装置1Bは、画像処理等の演算及び制御を行う演算処理装置4Bと、通信装置61Bと、接続部62Bと、メモリ5Bと、位置・角度検出装置7と、A/D変換装置71と、表示装置8と、D/A変換装置81と、これらの
装置の通信を媒体するシステムバス11Bを有している。図3は、画像表示装置1Bの構成を示すブロック図である。
On the other hand, the image display device 1B includes an arithmetic processing device 4B that performs arithmetic processing and control such as image processing, a communication device 61B, a connection unit 62B, a memory 5B, a position / angle detection device 7, and an A / D conversion device. 71, a display device 8, a D / A conversion device 81, and a system bus 11B that mediates communication of these devices. FIG. 3 is a block diagram showing a configuration of the image display device 1B.

演算処理装置4Bは、中央処理装置[CPU(Central Processing Unit)
]41Bと、リードオンリーメモリ[ROM]42Bと、ランダムアクセスメモリ[RAM]43Bとを備えている。中央処理装置41Bは、例えば、位置・角度検出装置7からの位置と角度のデータ等(センサデータ)をメモリ5Bへ書き込みおよび演算、データ送受信の制御、画像の描画等を行う。通信装置61Bは、画像取込装置1Aへのセンサデータ送信、画像表示装置1Aからの描画用画像データ受信を行う。接続部62Bは、接続端子を備え、画像取得装置1Aの接続部62Aに設けられた接続端子と接続することによって、通信装置61Bと同様の作用をする。
The arithmetic processing unit 4B is a central processing unit [CPU (Central Processing Unit)].
] 41B, read-only memory [ROM] 42B, and random access memory [RAM] 43B. The central processing unit 41B, for example, writes and calculates position and angle data (sensor data) from the position / angle detection device 7 to the memory 5B, performs data transmission / reception control, image drawing, and the like. The communication device 61B transmits sensor data to the image capturing device 1A and receives drawing image data from the image display device 1A. The connection unit 62B includes a connection terminal, and operates in the same manner as the communication device 61B by connecting to the connection terminal provided in the connection unit 62A of the image acquisition device 1A.

本願発明の位置検出手段および角度検出手段である位置・角度検出装置7は、画像表示装置1Bの基準点からの位置および角度を検出する。位置・角度検出装置7は、ジャイロセンサ、加速度センサ、地磁気センサ等により構成される。これらのセンサは画像取得装置1Aと画像表示装置1Bとの相対距離(位置関係)及び相対角度(方向)を算出するために用いるものであり、相対距離及び相対角度を算出できるものであれば、上述のセンサのうち1つの使用でも複数の使用でもかまわない。さらに、本発明は上述のセンサに限られるものではなく、相対距離及び相対角度を検出できるものであれば、どのようなセンサを用いてもかまわない。   The position / angle detection device 7 which is the position detection means and the angle detection means of the present invention detects the position and angle from the reference point of the image display device 1B. The position / angle detection device 7 includes a gyro sensor, an acceleration sensor, a geomagnetic sensor, and the like. These sensors are used to calculate the relative distance (positional relationship) and the relative angle (direction) between the image acquisition device 1A and the image display device 1B. If the relative distance and the relative angle can be calculated, One or more of the above sensors may be used. Furthermore, the present invention is not limited to the above-described sensor, and any sensor may be used as long as it can detect the relative distance and the relative angle.

ジャイロセンサ、地磁気センサによって、画像表示装置1Bの向きが検出され、加速度センサによって移動距離や角度(仰角・俯角)が検出される。さらに、車内に設けられた3つの測量点から、電波・超音波等によって画像表示装置1Bの位置を三点測量し、位置検出する方法などが採られる。具体的には、上記センサ類による位置検出と、三点測量による位置検出とを複合的に用いて、位置検出が行われる。この位置検出の演算は、センサ類が検出したデータに基づく演算及び三点測量による演算は、画像取得装置1Aの中央処理装置1Aで行われる。さらに、画像表示装置1Bの姿勢は、GPSや電波測量と同じように、画像表示装置1B側の3点の位置をそれぞれ検出することによっても、検出することができる。   The orientation of the image display device 1B is detected by the gyro sensor and the geomagnetic sensor, and the moving distance and angle (elevation angle / depression angle) are detected by the acceleration sensor. Further, a method of measuring the position of the image display device 1B from three survey points provided in the vehicle by radio waves, ultrasonic waves, etc., and detecting the position is adopted. Specifically, position detection is performed using a combination of position detection by the sensors and position detection by three-point surveying. In this position detection calculation, the calculation based on the data detected by the sensors and the calculation based on the three-point survey are performed by the central processing unit 1A of the image acquisition device 1A. Further, the attitude of the image display device 1B can be detected by detecting the positions of the three points on the image display device 1B side, as in the case of GPS and radio wave surveying.

A/D変換器71は、アナログ出力であるセンサ出力を中央処理装置1Bが扱
えるようにデジタルデータに変換する。なお、位置・角度検出装置7からの出力が予めデジタル出力の場合には、A/D変換器71は不要である。
The A / D converter 71 converts the sensor output, which is an analog output, into digital data so that the central processing unit 1B can handle it. When the output from the position / angle detection device 7 is a digital output in advance, the A / D converter 71 is not necessary.

本発明の表示手段である表示装置8は、受信した描画用画像データを表示する。表示装置8は、ディプレイ画面を備え、ディスプレイ画面は、例えば液晶パネルやELパネル等が用いられる。D/A変換器81は、表示装置8がアナログ入力の場合、中央処理装置1Bが扱うデジタルデータをアナログデータに変換する。表示装置8がデジタル入力対応であれば不要となる。メモリ5Bは、センサデータや受信した画像データのバッファリングに用いられる。   The display device 8 as the display means of the present invention displays the received drawing image data. The display device 8 includes a display screen, and for example, a liquid crystal panel or an EL panel is used as the display screen. When the display device 8 is an analog input, the D / A converter 81 converts digital data handled by the central processing unit 1B into analog data. If the display device 8 is compatible with digital input, it is not necessary. The memory 5B is used for buffering sensor data and received image data.

以上のように構成された本発明の車外情報表示装置1の作用について、図4に示されているフローチャートに基づき説明する。
システムが起動すると、まず画像取込装置1A及び画像表示装置1Bの初期化処理が行われる(ステップS101、S201)。システム起動は、イグニッションON、スイッチ操作等によって行われ、シフトポジションや車速に応じて動作するといった動作制限を設けても良い。或は、車両の方向を転換する予備動作として行われる動作を検出して、システムが起動する構成としてもよい。また、画像表示装置1Bを保持位置(接続部62A)から離脱させた場合に、即ち、接続
部62Aと接続部62Bの接続が切り離された場合に、システム起動する構成としてもよい。
The operation of the vehicle exterior information display apparatus 1 of the present invention configured as described above will be described based on the flowchart shown in FIG.
When the system is activated, first, initialization processing of the image capturing device 1A and the image display device 1B is performed (steps S101 and S201). System activation may be performed by ignition ON, switch operation, or the like, and operation restrictions such as operation according to the shift position or the vehicle speed may be provided. Or it is good also as a structure which detects the operation | movement performed as a preliminary | backup operation | movement which changes the direction of a vehicle, and starts a system. Further, the system may be activated when the image display device 1B is detached from the holding position (connection portion 62A), that is, when the connection between the connection portion 62A and the connection portion 62B is disconnected.

画像取込装置1Aの初期化処理としては、カメラ電源のオンや明るさ・コントラスト設定等のカメラの初期化を行い、画像取込のための準備を行う。また、画像処理に必要となるパラメータを、メモリ5Aに格納されたデフォルト値を読み出し、或はユーザー入力を促す等の方法で設定する。また、画像表示装置1Bの初期化処理としては、位置・角度検出のために用いるセンサ類の初期化が行われ、測定基準点である起点は、保持位置に設定される。 As initialization processing of the image capturing device 1A, the camera is initialized such as turning on the camera power and setting the brightness / contrast and preparing for image capturing. Further, parameters necessary for image processing are set by a method of reading a default value stored in the memory 5A or prompting user input. Further, as an initialization process of the image display device 1B, sensors used for position / angle detection are initialized, and a starting point that is a measurement reference point is set to a holding position.

画像取込装置1Aと画像表示装置1Bとの間で、通信回線の接続処理を行う(ステップS103、S203)。そして、回線が確立すると、画像取込装置1A側では、各カメラから画像取込を開始する(ステップS105)。取込まれた画像データはメモリ5Aに確保されたバッファ51F、51R、51L、51Bに随時格納される。また、画像表示装置1Bでは、位置・角度検出装置7により画像表示装置1Bの位置・角度の情報を取得する(ステップS205)。取得され
る値は、ディスプレイ画面の仰角又は俯角、画面の向き(車に対しての水平方向の回転角度)、移動距離等に関する値である。取得されたデータは、通信装置61Bを介して、画像取込装置1Aに送信される(ステップS207)。画像取込装置1A側では、通信装置61Aを介して、画像表示装置1Bから送信されたセ
ンサデータを受信する(ステップS107)。受信するセンサデータには、ジャイロセンサによって検出されるディスプレイ画面の角度(仰角又は俯角)、及び画面回転角(車両に対しての水平方向の回転角度)に関するデータ、地磁気センサによってディスプレイ画面の方向(ディスプレイ画面に垂直な直線を水平面内に投影した線L1の向きに関するデータ、などがある。
Communication line connection processing is performed between the image capturing device 1A and the image display device 1B (steps S103 and S203). When the line is established, the image capturing device 1A starts image capturing from each camera (step S105). The captured image data is stored in buffers 51F, 51R, 51L, 51B secured in the memory 5A as needed. Further, in the image display device 1B, the position / angle detection device 7 acquires information on the position / angle of the image display device 1B (step S205). The acquired values are values relating to the elevation angle or depression angle of the display screen, the screen orientation (horizontal rotation angle with respect to the vehicle), the movement distance, and the like. The acquired data is transmitted to the image capturing device 1A via the communication device 61B (step S207). On the image capturing device 1A side, sensor data transmitted from the image display device 1B is received via the communication device 61A (step S107). The received sensor data includes data on the display screen angle (elevation angle or depression angle) detected by the gyro sensor and the screen rotation angle (horizontal rotation angle with respect to the vehicle), and the direction of the display screen by the geomagnetic sensor ( There are data relating to the direction of the line L1 obtained by projecting a straight line perpendicular to the display screen into the horizontal plane.

供給されたデータに基づいて、画像抽出処理が行われる(ステップS109)。この画像抽出処理は、図6に示されているサブルーチンに基づき説明する。位置・角度検出装置7に基づき、3点測量により画像表示装置1Bの3次元位置を検出する(ステップS301)。画像表示装置1Bの3次元位置は、図5に示されているように、画像表示装置1Bの保持位置101を起点(X,Y,Z=0,0,0)として、ステップS107で受信した画像表示装置1Bの位置・角度検
出装置7からの位置の情報、または三点測量等を用いて相対位置を算出することによって、位置特定される(X,Y,Z=x1,y1,z1)。このステップS3
01によって位置検出手段が構成される。起点は、保持位置でなくとも良く、車内空間の4隅のいずれか、車内空間の中央、ハンドルの位置、運転手の視点位置、バックミラーの位置等、いずれでもよい。
Image extraction processing is performed based on the supplied data (step S109). This image extraction process will be described based on a subroutine shown in FIG. Based on the position / angle detection device 7, the three-dimensional position of the image display device 1B is detected by three-point surveying (step S301). As shown in FIG. 5, the three-dimensional position of the image display device 1B is received in step S107 with the holding position 101 of the image display device 1B as the starting point (X, Y, Z = 0, 0, 0). The position is specified by calculating the relative position using position information from the position / angle detection device 7 of the image display device 1B or three-point surveying (X, Y, Z = x1, y1, z1). . This step S3
01 constitutes a position detecting means. The starting point does not have to be the holding position, and may be any of the four corners of the interior space, the center of the interior space, the position of the steering wheel, the viewpoint position of the driver, the position of the rearview mirror, and the like.

また、画像表示装置1Bに設けられたジャイロセンサや加速度センサ、地磁気センサからの値に基づいて、画像表示装置1Bの姿勢が特定される(ステップS
302)。姿勢とは、画像表示装置1Bのディスプレイ画面の向いている方向で
あり、この姿勢の特定によって、ディスプレイ画面の仰角又は俯角(傾き)及び回転角が特定される。
Further, the attitude of the image display device 1B is specified based on values from the gyro sensor, acceleration sensor, and geomagnetic sensor provided in the image display device 1B (step S).
302). The posture is the direction in which the display screen of the image display device 1B is facing, and the elevation angle or depression angle (tilt) and rotation angle of the display screen are specified by specifying the posture.

ステップS301及びステップS302で決定された位置及び姿勢から視点位置を特定する(ステップS303)。この実施形態では、視点位置は、各座席毎に予め定められており、視点位置としての座標が画像処理情報メモリ53に記憶されている。例えば、運転席111には、視点位置E1が予め座標(xe1,ye1,ze1)として記憶されている。助手席112には、視点位置E2が座標(x
e2,ye2,ze2)として、その他3人掛けの後部座席113には、視点位置
E3、E4、E5が、座席114には、視点位置E6、E7、E8がそれぞれ予め決められており、それぞれ固有の座標が記憶されている。そして、各視点位置に応じた領域が予め定められており、どの領域内に画像表示装置1Bが含まれて
いるかを判断し、その領域に対応した視点位置が決定される。
A viewpoint position is specified from the position and orientation determined in steps S301 and S302 (step S303). In this embodiment, the viewpoint position is predetermined for each seat, and coordinates as the viewpoint position are stored in the image processing information memory 53. For example, the viewpoint 111 is stored in advance in the driver's seat 111 as coordinates (xe1, ye1, ze1). In the passenger seat 112, the viewpoint position E2 has coordinates (x
e2, ye2, ze2), the viewpoint positions E3, E4, E5 are determined in advance for the other three-seat rear seat 113, and the viewpoint positions E6, E7, E8 are determined in advance for the seat 114, respectively. Coordinates are stored. An area corresponding to each viewpoint position is determined in advance, and it is determined in which area the image display device 1B is included, and the viewpoint position corresponding to the area is determined.

この領域は、各座席毎に設定され、座席の第1列目の背もたれよりも前方側の領域であって、運転席と助手席に対応した領域、この領域には、視点位置E1、E2がそれぞれ対応している。
第2列目の座席113の背もたれと、第1列目の座席111、112の背もたれとの間に設けられた領域であって、乗車する人間が座る位置に応じて設けられた3つの領域には、視点位置E3、E4、E5がそれぞれ対応している。
第3列目の座席114の背もたれと、第2列目の座席113の背もたれとの間に設けられた領域であって、乗車する人間が座る位置に応じて設けられた3つの領域には、視点位置E6、E7、E8がそれぞれ対応している。
This area is set for each seat and is an area ahead of the backrest in the first row of seats, corresponding to the driver's seat and front passenger seat. In this area, the viewpoint positions E1 and E2 are set. Each corresponds.
It is an area provided between the backrest of the seat 113 in the second row and the backrest of the seats 111 and 112 in the first row, and is provided in three areas provided according to the position where the person who gets on the seat sits. Respectively correspond to the viewpoint positions E3, E4, and E5.
There are three areas provided between the backrest of the seat 114 in the third row and the backrest of the seat 113 in the second row, which are provided in accordance with the position where the person on board is sitting, The viewpoint positions E6, E7, and E8 correspond to each other.

そして、各領域の境目に画像表示装置1Bが位置する場合には、表示装置であ
るディスプレイ8が表示する側にある視点位置が選択される。このような作用を有するステップS303によって、視点位置特定手段が構成される。このように、画像表示装置1Bの位置と、姿勢が特定されると、視点位置が決定される。この実施形態では、運転席の運転手の視点位置E1となる。
When the image display device 1B is located at the boundary of each region, the viewpoint position on the display side of the display 8 as the display device is selected. Step S303 having such an action constitutes the viewpoint position specifying means. Thus, when the position and orientation of the image display device 1B are specified, the viewpoint position is determined. In this embodiment, it becomes the viewpoint position E1 of the driver of the driver's seat.

視点位置の特定方法として、既述のように、予め座席位置に応じた視点位置の座標を決めておき、これを記憶しておく構成の他、位置特定された画像表示装置1Bのディスプレイ画面8の中心を通る垂直線(軸線)上に位置し、ディスプレイ画面8から所定の距離(例えば、35〜50cm程度の範囲内で予め定められた距離)離れて位置する点を視点位置と想定し、その位置の座標を算出する方法を摂ってもよい。さらに他の方法としては、ディスプレイ画面8が設けられている側において、画像表示装置1Bに最も近い視点位置を、8つの視点位置の中から選択する方法としてもよい。   As described above, as a method for specifying the viewpoint position, the coordinates of the viewpoint position corresponding to the seat position are determined in advance and stored, and the display screen 8 of the image display device 1B whose position has been specified is stored. A point located on a vertical line (axis line) passing through the center of the display and located at a predetermined distance (for example, a predetermined distance within a range of about 35 to 50 cm) from the display screen 8 is assumed as a viewpoint position, You may take the method of calculating the coordinate of the position. As another method, the viewpoint position closest to the image display device 1B on the side where the display screen 8 is provided may be selected from the eight viewpoint positions.

以上のとおり、視点位置E1が特定されると、該視点位置E1と、ディスプレイの中央部とを結ぶ直線が特定され、この直線の延長線上において、視点位置E1からディスプレイ8へ向かう方向が、画像を取得する方向として特定される(ステップS304)。このステップS304によって方向検出手段が構成される。   As described above, when the viewpoint position E1 is specified, a straight line connecting the viewpoint position E1 and the center of the display is specified, and the direction from the viewpoint position E1 toward the display 8 on the extended line of the straight line is the image. Is specified as the direction to acquire (step S304). This step S304 constitutes a direction detecting means.

次に、視点位置E1とディスプレイ8とを結ぶ直線を平面に投影した場合の直線L1と、車両の軸線(Y軸)との成す角α(回転角)を算出する(ステップS
305)。ステップS302及びステップS305により本願発明の角度検出手段が構成される。
Next, an angle α (rotation angle) formed by the straight line L1 when a straight line connecting the viewpoint position E1 and the display 8 is projected onto a plane and the vehicle axis (Y axis) is calculated (step S).
305). Steps S302 and S305 constitute the angle detection means of the present invention.

次に、角度αに基づき、抽出画像を抽出する画像を取り込むカメラを選択する(ステップS307)。このステップS307によって、選択手段が構成される。
角度αについては、図2に示されているように、カメラレンズの光軸の交差点を中心として、前方を0°後方を±180°、左方向をマイナス値、右方向をプラス値と設定する。そして、- 25°<α< 25°の場合には、前方カメラ3F、-160°<α<-25°の場合には、左側方カメラ3L、25°<α<160°の場合には、右側方カメラ3R、-160°<α<-180°の場合又は160°<α<180°の場合には、後方カメラ3Bを選択する。このように、切り出す画像の領域、車両の側面のカメラ3R、3Lで取得された画像がより広く、車両の前後のカメラ3F、3Bで取得された画像が狭く構成されている。車両に並走する自転車やオートバイを捕えるためには、側面のカメラの画像が有用であるからである。換言すると、側面のカメラ3R、3Lを原則として用い、これらのカメラで捕えられない領域、即ち、真正面、真後などの領域では、前方に設けられたカメラFと後方に設けられたカメラBを用いる。
Next, based on the angle α, a camera that captures an image from which an extracted image is extracted is selected (step S307). This step S307 constitutes selection means.
As shown in FIG. 2, with respect to the angle α, centering on the intersection of the optical axes of the camera lenses, the front is set to 0 °, the rear is ± 180 °, the left is set to a negative value, and the right is set to a positive value. . When -25 ° <α <25 °, the front camera 3F, when -160 ° <α <-25 °, the left camera 3L, when 25 ° <α <160 °, When the right side camera 3R is in the case of -160 ° <α <-180 ° or 160 ° <α <180 °, the rear camera 3B is selected. In this manner, the image area to be cut out, the images acquired by the cameras 3R and 3L on the side of the vehicle are wider, and the images acquired by the cameras 3F and 3B before and after the vehicle are narrower. This is because the image of the side camera is useful to catch a bicycle or motorcycle running in parallel with the vehicle. In other words, the cameras 3R and 3L on the side are used in principle, and in a region that cannot be captured by these cameras, that is, in a region such as right in front or right behind, the camera F provided in the front and the camera B provided in the rear are Use.

この他、ステップS307によって構成さる選択手段の他の実施形態として、撮像方向に向けられたカメラレンズの光軸(ベクトル)と、特定された視点位置から画像表示装置1Bへ向かう延長線(ベクトル)との交差角度が、最も小さいカメラを選択する構成としてもよい。カメラの光軸と視線とが最も平行に近いカメラが選択されるので、視点変換された画像の歪みが抑制され、より鮮明な画像を得ることができる。このような選択方法は、魚眼レンズを有さないカメラを多数設け、これらのカメラ画像を繋ぎ合わせて画像を構成する場合に特に有用である。   In addition, as another embodiment of the selection means configured in step S307, the optical axis (vector) of the camera lens directed in the imaging direction and an extension line (vector) from the identified viewpoint position toward the image display device 1B It is also possible to select a camera that has the smallest intersection angle with. Since the camera whose optical axis and line of sight are closest to each other is selected, distortion of the image subjected to viewpoint conversion is suppressed, and a clearer image can be obtained. Such a selection method is particularly useful in the case where a large number of cameras that do not have fisheye lenses are provided and these camera images are connected to form an image.

さらに、その他の方法として、直線L1が、車体の側面の輪郭線と交差する場合には、側面に設けられたカメラ3R、3Lを選択し、車体の正面の輪郭と交差する場合には、正面のカメラ3Fを選択し、車体の背面の輪郭と交差する場合には、背面のカメラ3Bを選択する構成としてもよい。また、ステップS305によって検出された角度αではなく、車両に対するディスプレイの向いている方向のカメラを選択する構成としてもよい。   Furthermore, as another method, when the straight line L1 intersects the contour line of the side surface of the vehicle body, the cameras 3R and 3L provided on the side surface are selected, and when the straight line L1 intersects the contour of the front surface of the vehicle body, When the camera 3F is selected and intersects with the contour of the rear surface of the vehicle body, the rear camera 3B may be selected. Moreover, it is good also as a structure which selects the camera of the direction which the display is facing with respect to a vehicle instead of the angle (alpha) detected by step S305.

次に、選択されたカメラの魚眼画像内において、抽出する画像の抽出位置を決定する(ステップS309)。図7に示されているように、選択されたカメラ画像(魚眼画像Pc1)から、抽出画像Pc2を決定する。具体的には、カメラ選択に使用した角度αを魚眼画像Pc1の横方向の座標に変換する。魚眼画像の縦方向の座標については、画像表示装置の仰角または俯角に対応させる。例えば、α=-70°、センサの俯角データが-20°であれば、魚眼画像内の位置では、水平
方向20°(=90°−70°)、垂直方向-20°となる。(ただし、魚眼画像の中心
を0°とし、中心から右・上方向を+値、左・下方向を−値とした場合。)
このようにして抽出される画像の中心点P0が決定される(ステップS309)。そして、この中心点P0を中心とした抽出画像Pc2が抽出される(ステップS311)。このステップS301〜S311によって、画像抽出手段が構成される。
Next, the extraction position of the image to be extracted is determined within the fisheye image of the selected camera (step S309). As shown in FIG. 7, the extracted image Pc2 is determined from the selected camera image (fisheye image Pc1). Specifically, the angle α used for camera selection is converted into horizontal coordinates of the fisheye image Pc1. The vertical coordinate of the fisheye image is made to correspond to the elevation angle or depression angle of the image display device. For example, if α = −70 ° and the depression angle data of the sensor is −20 °, the position in the fisheye image is 20 ° in the horizontal direction (= 90 ° −70 °) and −20 ° in the vertical direction. (However, when the center of the fisheye image is 0 °, the right and up directions from the center are + values, and the left and down directions are -values.)
The center point P0 of the image extracted in this way is determined (step S309). Then, an extracted image Pc2 centered on this center point P0 is extracted (step S311). These steps S301 to S311 constitute an image extraction means.

次に、抽出された画像の画像処理が行われる(ステップS111)。図8は、ステップS111の画像処理の内容を示すサブルーチンである。抽出画像Pc2に正像変換処理を行うことで、歪みを補正する(ステップS401)。次に視点変換処理(ステップS403)を行い、車体データを合成する画像合成処理(ステップS405)を行う。   Next, image processing of the extracted image is performed (step S111). FIG. 8 is a subroutine showing the contents of the image processing in step S111. Distortion is corrected by performing normal image conversion processing on the extracted image Pc2 (step S401). Next, viewpoint conversion processing (step S403) is performed, and image composition processing (step S405) for compositing vehicle body data is performed.

ステップS303において決められた視点位置(図5においては、運転車の視点位置E1)が基準点とされる。この視点位置に基づき、ステップS401で処
理された画像を、アフィン変換により、カメラ視点の画像から決められた視点位置からの視点画像になるように画像処理する(ステップS403)。これにより、取得された画像が、特定された視点位置から見た場合の画像に変換される。このステップS403によって視点変換手段が構成される。
The viewpoint position determined in step S303 (the viewpoint position E1 of the driving vehicle in FIG. 5) is set as the reference point. Based on this viewpoint position, the image processed in step S401 is subjected to image processing so as to become a viewpoint image from the viewpoint position determined from the camera viewpoint image by affine transformation (step S403). Thereby, the acquired image is converted into an image when viewed from the specified viewpoint position. This step S403 constitutes viewpoint conversion means.

以上のように視点変換処理を行った後、画像合成処理を行う(ステップS405)。図9は、画像合成処理の内容を示すフローチャートである。車体データメモリ54に格納されている車体輪郭データ、タイヤ設置位置データ等を読み出す(ステップS501)。これらのデータは、車体輪郭やタイヤなどを、画面に映し出す画像化するために必要なデータである。これらのデータを用いて、ステップS301〜309で得られた画像抽出方向のデータに基づき、ステップS311で抽出される画像と同じ視線方向の車体輪郭画像を生成する(ステップS503)。   After performing the viewpoint conversion process as described above, the image composition process is performed (step S405). FIG. 9 is a flowchart showing the contents of the image composition process. Car body contour data, tire installation position data, and the like stored in the car body data memory 54 are read (step S501). These data are data necessary for imaging the vehicle body contour, tires, and the like to be displayed on the screen. Using these data, based on the image extraction direction data obtained in steps S301 to S309, a vehicle body contour image in the same line-of-sight direction as the image extracted in step S311 is generated (step S503).

車体輪郭画像とは、具体的には、例えば、車体の輪郭を示すワイヤーフレーム画像、或は、車体内部を映した半透明画像などがある。これらの画像は、車体全部を表している必要はなく、車体の一部であってもよい。車体と外部状況との位置関係が把握できる程度のものでよい。例えば、窓枠、車輪、テールランプ、ヘッドランプなどの内の1つ又は2つ以上のワイヤーフレーム(又は、半透明画像)でもよい。   Specifically, the vehicle body outline image includes, for example, a wire frame image showing the outline of the vehicle body, or a translucent image showing the inside of the vehicle body. These images do not have to represent the entire vehicle body, and may be a part of the vehicle body. It is sufficient that the positional relationship between the vehicle body and the external situation can be grasped. For example, one or more wire frames (or a translucent image) such as a window frame, a wheel, a tail lamp, and a head lamp may be used.

生成された車体輪郭画像について、ステップS403で決定された視点位置に基づき、視点変換処理を行う(ステップS505)。変換方法は、ステップS403で行った変換方法と同様である。ステップS501〜S505によって、輪郭形成手段が構成される。   A viewpoint conversion process is performed on the generated vehicle body contour image based on the viewpoint position determined in step S403 (step S505). The conversion method is the same as the conversion method performed in step S403. Steps S501 to S505 constitute the contour forming means.

また、輪郭形成手段は、上記ワイヤーフレームの画像を各使用者毎(座席毎)に格納されていてもよく、その場合には、ステップS303にて特定された使用者(視点位置)に応じたワイヤーフレームを読み込み合成する。こうすることにより画像処理負荷を軽減することが可能である。   Further, the contour forming unit may store the image of the wire frame for each user (for each seat), and in that case, the contour forming unit corresponds to the user (viewpoint position) specified in step S303. Read the wire frame and synthesize it. By doing so, it is possible to reduce the image processing load.

ステップS505で得られた車体輪郭画像を、視点変換処理(ステップS403)が終了した、車外画像に合成する(ステップS507)。このように合成された画像は、車体の輪郭が把握できるとともに、車体を透視して視認できる車外状況が同時に把握できる画像である。ステップS507によって、画像合成手段が構成される。   The vehicle body contour image obtained in step S505 is combined with the vehicle exterior image in which the viewpoint conversion processing (step S403) is completed (step S507). The image synthesized in this way is an image in which the outline of the vehicle body can be grasped and the outside situation that can be seen through the vehicle body can be grasped simultaneously. Step S507 constitutes an image composition unit.

上記画像処理におけるステップS401〜S405は、必ずしも上記順番で行われる必要はなく、これらの3つの処理が行われるのであれば、処理の順番は、特に限定されない。例えば、視点変換、画像合成をした後、正像変換してもよく、最初又は最後に視点変換を行ってもよい。   Steps S401 to S405 in the image processing are not necessarily performed in the above order, and the order of processing is not particularly limited as long as these three processes are performed. For example, after performing viewpoint conversion and image synthesis, normal image conversion may be performed, or viewpoint conversion may be performed first or last.

以上のように生成された描画データを、通信装置61Aを介して、画像表示装置1Bへ送信する(ステップS113)。画像表示装置1Bでは、画像取込装置1Aから送信された描画データを通信装置61Bを介して受信する(ステップS
209)。受信した描画データをディスプレイ画面8に画像表示する(ステップS211)。このステップS211によって表示手段が構成される。図11に示されているように、ディスプレイ画面8に表示された画像82は、そのディスプレイ画面8を見ている使用者にとっては、その視線の延長線上にある車外画像に、車体の輪郭Bdが重ねて表示されたものである。つまり、車体によって死角となっている車外の状況を把握することができ、かつ、車体との位置関係も把握することが容易となる。
The drawing data generated as described above is transmitted to the image display device 1B via the communication device 61A (step S113). The image display device 1B receives the drawing data transmitted from the image capturing device 1A via the communication device 61B (step S).
209). The received drawing data is displayed as an image on the display screen 8 (step S211). This step S211 constitutes display means. As shown in FIG. 11, the image 82 displayed on the display screen 8 has a contour Bd of the vehicle body on the image outside the vehicle on the extension line of the line of sight for the user who is viewing the display screen 8. It is displayed overlaid. That is, it is possible to grasp the situation outside the vehicle that is a blind spot by the vehicle body, and to easily grasp the positional relationship with the vehicle body.

その後、画像取込装置1A及び画像表示装置1Bともに、終了トリガーが検出されたか判断する(ステップS115及びS213)。終了トリガーには、スイッチのOFF操作、イグニッションスイッチのOFF、シフトポジションや車速が予め定められた動作条件からはずれた場合、或は、画像表示装置1Bの保持位置(接続部62A)へのセット等がある。これらの動作があった場合には、画像取込装置1Aと画像表示装置1Bとの通信は必要がなくなったものとして、通信装置61Aと通信装置61Bと通信回線は絶たれる(ステップS117及びS215)。
終了トリガーが検出されない場合には、画像取込装置1Aでは、ステップS1
07へ、画像表示装置1Bでは、ステップS207へ、それぞれリターンされ、
画像表示動作が継続される。
Thereafter, both the image capture device 1A and the image display device 1B determine whether an end trigger has been detected (steps S115 and S213). The end trigger includes switch OFF operation, ignition switch OFF, shift position and vehicle speed deviating from predetermined operating conditions, or setting to the holding position (connection portion 62A) of the image display device 1B, etc. There is. When these operations are performed, it is assumed that communication between the image capturing device 1A and the image display device 1B is no longer necessary, and the communication line between the communication device 61A and the communication device 61B is cut off (steps S117 and S215). .
When the end trigger is not detected, the image capturing device 1A performs step S1.
07, the image display device 1B returns to step S207, respectively.
The image display operation is continued.

既述のように、画像表示装置1Bは、保持位置に対して着脱自在に構成されている。そして、保持位置に固定された状態では、より鮮明な画像を画像表示面に表示することができるとともに、画像表示装置1Bのみを、他の装置の表示画面として用いることもできる。   As described above, the image display device 1B is configured to be detachable from the holding position. And in the state fixed to the holding position, while a clearer image can be displayed on an image display surface, only the image display apparatus 1B can also be used as a display screen of another apparatus.

画像取込装置の構成を示すブロック図である。It is a block diagram which shows the structure of an image capture device. カメラ取り付け位置を示す、車両の平面図である。It is a top view of a vehicle which shows a camera attachment position. 画像表示装置の構成を示すブロック図である。It is a block diagram which shows the structure of an image display apparatus. フローチャートである。It is a flowchart. 車内の座席配置を示す模式図である。It is a schematic diagram which shows the seat arrangement | positioning in a vehicle. 画像抽出処理の内容を示すフローチャートである。It is a flowchart which shows the content of an image extraction process. 魚眼レンズの画像図である。It is an image figure of a fisheye lens. 画像処理の内容を示すフローチャートである。It is a flowchart which shows the content of image processing. 画像合成処理の内容を示すフローチャートである。It is a flowchart which shows the content of an image composition process. 表示画像図である。It is a display image figure.

符号の説明Explanation of symbols

1A 画像取込装置
1B 画像表示装置
3F、3R、3L、3B カメラ
8 表示装置(ディスプレイ)
1A image capture device 1B image display device 3F, 3R, 3L, 3B camera 8 display device (display)

Claims (9)

車両の周囲を撮像する撮像手段と、
画像表示面を有するディスプレイと、
予め定められた起点と前記ディスプレイとの位置関係を検出する位置検出手段と、
前記撮像手段によって撮像された画像から、前記位置検出手段により検出した位置関係に基づき、基準点からディスプレイ方向へ向かう線の延長線上に存在する車両周囲の画像を、抽出する画像抽出手段と、
前記画像抽出手段に基づいて抽出された画像を前記ディスプレイに表示する表示手段と、を有することを特徴とする車外情報表示装置。
Imaging means for imaging the surroundings of the vehicle;
A display having an image display surface;
Position detecting means for detecting a positional relationship between a predetermined starting point and the display;
Image extracting means for extracting an image around the vehicle existing on an extension line of a line from the reference point toward the display direction based on the positional relationship detected by the position detecting means from the image picked up by the image pickup means;
An outside information display device comprising: display means for displaying an image extracted based on the image extraction means on the display.
前記基準点は、運転者の視点位置を仮想的に想定した位置であることを特徴とする請求項1に記載の車外情報表示装置。 The vehicle exterior information display device according to claim 1, wherein the reference point is a position virtually assuming a driver's viewpoint position. 前記起点は、前記ディスプレイの保持位置であることを特徴とする請求項1又は2に記載の車外情報表示装置。 The origin is outside the information display apparatus according to claim 1 or 2, characterized in that the holding position of the display. 車両の周囲を撮像する撮像手段と、
画像表示面を有するディスプレイと、
予め定められた起点に対する前記ディスプレイの位置関係を検出する位置検出手段と、
前記位置検出手段によって検出された位置関係に基づき、前記ディスプレイを使用している使用者の視点位置を特定する視点位置特定手段と、
前記視点位置特定手段によって特定された視点とディスプレイの位置から、視点から前記ディスプレイへ向かう方向を検出する方向検出手段と、
前記撮像手段によって撮像された画像から、前記方向検出手段によって検出された方向に対応する車両周囲の画像を抽出する画像抽出手段と、
前記画像抽出手段に基づいて抽出された画像を前記ディスプレイに表示する表示手段とを有することを特徴とする車外情報表示装置。
Imaging means for imaging the surroundings of the vehicle;
A display having an image display surface;
Position detecting means for detecting a positional relationship of the display with respect to a predetermined starting point;
Viewpoint position specifying means for specifying the viewpoint position of the user using the display based on the positional relationship detected by the position detecting means;
Direction detecting means for detecting a direction from the viewpoint toward the display from the viewpoint specified by the viewpoint position specifying means and the position of the display;
Image extracting means for extracting an image around the vehicle corresponding to the direction detected by the direction detecting means from the image taken by the imaging means;
A vehicle outside information display device comprising: display means for displaying an image extracted based on the image extraction means on the display.
前記視点位置から、位置特定された前記ディスプレイの位置する方向を視認した場合の画像に、前記画像抽出手段によって抽出した画像を視点変換処理する視点変換手段とを有する請求項2又は4に記載の車外情報表示装置。 The viewpoint conversion unit according to claim 2, further comprising: a viewpoint conversion unit that performs a viewpoint conversion process on the image extracted by the image extraction unit to an image in the case where the direction in which the display is located is visually recognized from the viewpoint position. Outside-vehicle information display device. 車両内における前記ディスプレイ表示面の傾き及び回転角を検出する角度検出手段と、を備え、
前記画像抽出手段は、さらに、前記角度検出手段により検出された角度に基づき抽出することを特徴とする請求項1又は請求項4に記載の車外情報表示装置。
Angle detection means for detecting the tilt and rotation angle of the display surface in the vehicle,
5. The vehicle exterior information display apparatus according to claim 1, wherein the image extraction unit further extracts the image based on the angle detected by the angle detection unit.
車両の輪郭を記憶する車両情報記憶手段と、
前記車両情報記憶手段に記憶されている車両の輪郭情報に基づき、視点位置から視認した場合の車両輪郭を形成する輪郭形成手段と、
前記輪郭形成手段によって形成された車両の輪郭を前記表示手段に表示される画像に合成する画像合成手段とを有する請求項1〜6のいずれか1に記載の車外情報表示装置。
Vehicle information storage means for storing the contour of the vehicle;
Contour forming means for forming a vehicle contour when viewed from a viewpoint position based on vehicle contour information stored in the vehicle information storage means;
The vehicle exterior information display device according to any one of claims 1 to 6, further comprising an image synthesis unit that synthesizes an outline of the vehicle formed by the contour formation unit with an image displayed on the display unit.
前記撮像手段は、異なる方向へ向けて複数設けられており、 視点位置から前記ディスプレイの位置へ向かう線と、撮像手段の光軸との成す角度が最も小さい方向の撮像手段を、前記複数の撮像手段から1つ選択する選択
手段を有し、
前記画像抽出手段は、該選択された撮像手段が取得した画像から画像を抽出する請求項1〜7のいずれか1に記載の車外情報表示装置。
The plurality of imaging means are provided in different directions, and the imaging means in the direction where the angle formed by the line from the viewpoint position to the display position and the optical axis of the imaging means is the smallest is the plurality of imaging means. A selection means for selecting one of the means;
The vehicle exterior information display device according to claim 1, wherein the image extraction unit extracts an image from an image acquired by the selected imaging unit.
車両の周囲を撮像する撮像手段と、
画像表示面を有するディスプレイと、
前記画像表示面の傾き及び回転角を検出する角度検出手段と、
前記角度検出手段により検出した画像表示面の傾き及び回転角に基づき、前記撮像手段によって撮像された画像から、この画像表示面の裏面に対向する画像を抽出する画像抽出手段と、
前記画像抽出手段に基づいて抽出された画像を前記表示手段に表示する表示手段とを有することを特徴とする車外情報表示装置。
Imaging means for imaging the surroundings of the vehicle;
A display having an image display surface;
Angle detection means for detecting the tilt and rotation angle of the image display surface;
An image extracting means for extracting an image facing the back surface of the image display surface from the image captured by the image capturing means based on the inclination and rotation angle of the image display surface detected by the angle detecting means;
An outside information display device comprising: display means for displaying an image extracted based on the image extraction means on the display means.
JP2003418545A 2003-12-16 2003-12-16 Outside-vehicle information display device Expired - Fee Related JP4329525B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003418545A JP4329525B2 (en) 2003-12-16 2003-12-16 Outside-vehicle information display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003418545A JP4329525B2 (en) 2003-12-16 2003-12-16 Outside-vehicle information display device

Publications (2)

Publication Number Publication Date
JP2005184142A JP2005184142A (en) 2005-07-07
JP4329525B2 true JP4329525B2 (en) 2009-09-09

Family

ID=34780738

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003418545A Expired - Fee Related JP4329525B2 (en) 2003-12-16 2003-12-16 Outside-vehicle information display device

Country Status (1)

Country Link
JP (1) JP4329525B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11351918B2 (en) 2018-11-13 2022-06-07 Toyota Jidosha Kabushiki Kaisha Driver-assistance device, driver-assistance system, method of assisting driver, and computer readable recording medium
US11393196B2 (en) 2018-12-10 2022-07-19 Toyota Jidosha Kabushiki Kaisha Line of sight assistance device and method

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4696825B2 (en) * 2005-10-07 2011-06-08 日産自動車株式会社 Blind spot image display device for vehicles
US8179435B2 (en) 2005-09-28 2012-05-15 Nissan Motor Co., Ltd. Vehicle surroundings image providing system and method
JP2007096638A (en) * 2005-09-28 2007-04-12 Nissan Motor Co Ltd Vehicle ambient video image provisioning device
JP2007124609A (en) 2005-09-28 2007-05-17 Nissan Motor Co Ltd Apparatus for providing vehicle periphery image
JP2007329611A (en) * 2006-06-07 2007-12-20 Denso Corp Vehicle perimeter monitoring apparatus, vehicle perimeter monitoring system, and vehicle perimeter monitoring method
JP4862774B2 (en) 2006-12-20 2012-01-25 アイシン・エィ・ダブリュ株式会社 Driving support method and driving support device
JP5310602B2 (en) * 2010-03-04 2013-10-09 株式会社デンソー Perimeter monitoring system for vehicles
JP6077214B2 (en) * 2012-02-06 2017-02-08 富士通テン株式会社 Image processing apparatus, image processing method, program, and image processing system
JP6011104B2 (en) 2012-07-24 2016-10-19 株式会社デンソー Visibility support device for vehicle
JP6014442B2 (en) 2012-09-27 2016-10-25 富士通テン株式会社 Image generation apparatus, image display system, and image generation method
DE112014006149T5 (en) * 2014-01-10 2016-09-29 Aisin Seiki Kabushiki Kaisha Image display control device and image display system
DE102015214611A1 (en) * 2015-07-31 2017-02-02 Conti Temic Microelectronic Gmbh Method and device for displaying an environmental scene of a vehicle combination
WO2020084650A1 (en) * 2018-10-22 2020-04-30 三菱電機株式会社 Display control device and display control method
JP7251310B2 (en) * 2019-05-22 2023-04-04 株式会社Jvcケンウッド CAMERA POSITION DETECTION DEVICE, CAMERA UNIT, CAMERA POSITION DETECTION METHOD, AND PROGRAM

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11351918B2 (en) 2018-11-13 2022-06-07 Toyota Jidosha Kabushiki Kaisha Driver-assistance device, driver-assistance system, method of assisting driver, and computer readable recording medium
US11393196B2 (en) 2018-12-10 2022-07-19 Toyota Jidosha Kabushiki Kaisha Line of sight assistance device and method

Also Published As

Publication number Publication date
JP2005184142A (en) 2005-07-07

Similar Documents

Publication Publication Date Title
JP4329525B2 (en) Outside-vehicle information display device
US7212653B2 (en) Image processing system for vehicle
JP4497133B2 (en) Driving support method and driving support device
US8155385B2 (en) Image-processing system and image-processing method
JP5412979B2 (en) Peripheral display device
JP4364471B2 (en) Image processing apparatus for vehicle
JP4643860B2 (en) VISUAL SUPPORT DEVICE AND SUPPORT METHOD FOR VEHICLE
US20100085170A1 (en) Camera unit with driving corridor display functionality for a vehicle, method for displaying anticipated trajectory of a vehicle, and system for generating driving corridor markers
WO2011090163A1 (en) Parameter determination device, parameter determination system, parameter determination method, and recording medium
JP6313992B2 (en) Ambient monitoring device for towing vehicles
WO2005079060A1 (en) Operation support device
JP6077214B2 (en) Image processing apparatus, image processing method, program, and image processing system
JP2014049848A (en) Image generation device, image display system, parameter acquisition device, image generation method and parameter acquisition method
JP6072470B2 (en) In-vehicle imaging system
CN105371811B (en) The system for measuring hitch angle
JP4579132B2 (en) Vehicle / Ambient Image Providing Device
JP7168367B2 (en) accident reporting device
JP2003339044A (en) Surrounding monitoring apparatus for vehicle
JPWO2003034738A1 (en) Image processing device
JP4449537B2 (en) Outside-vehicle information display device
JP4470041B2 (en) Obstacle detection support device
JP3982357B2 (en) Image conversion system and image processing apparatus
WO2012060215A1 (en) In-vehicle camera device
JP2019175133A (en) Image processing device, image display system, and image processing method
JP2007302238A (en) Vehicular image processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060324

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090420

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090526

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090608

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120626

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130626

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140626

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees