JP2013201707A - Image reception and display device, and image transmission and reception system - Google Patents

Image reception and display device, and image transmission and reception system Download PDF

Info

Publication number
JP2013201707A
JP2013201707A JP2012070059A JP2012070059A JP2013201707A JP 2013201707 A JP2013201707 A JP 2013201707A JP 2012070059 A JP2012070059 A JP 2012070059A JP 2012070059 A JP2012070059 A JP 2012070059A JP 2013201707 A JP2013201707 A JP 2013201707A
Authority
JP
Japan
Prior art keywords
image
unit
reception
display device
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012070059A
Other languages
Japanese (ja)
Inventor
Tomokazu Ishihara
朋和 石原
Junji Shiokawa
淳司 塩川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Consumer Electronics Co Ltd
Original Assignee
Hitachi Consumer Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Consumer Electronics Co Ltd filed Critical Hitachi Consumer Electronics Co Ltd
Priority to JP2012070059A priority Critical patent/JP2013201707A/en
Publication of JP2013201707A publication Critical patent/JP2013201707A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an image reception and display device and an image transmission and reception system which accelerates driver's recognition of another vehicle and a pedestrian hidden at positions which become blind spots in a view from the vehicle driven by the driver.SOLUTION: The image reception and display device receives an image captured using a camera installed outside a vehicle such as on a road and an imaging parameter relating to the image, geometrically transforms the image, on the basis of the image parameter, to an image viewed from a predetermined position outside the vehicle, and displays the transformed image to the driver. An image capturing and transmitting device of an image to be displayed by the image reception and display device transmits to the image reception device the image data and the imaging parameter representing a situation in which the image data was captured.

Description

本発明は、画像受信表示装置、及び画像送受信システムに係り、特に、自車両が近づく前から死角の状況をドライバーに画像表示する画像受信表示装置、及び画像送受信システムに関する。   The present invention relates to an image reception display device and an image transmission / reception system, and more particularly, to an image reception display device and an image transmission / reception system for displaying an image of a blind spot on a driver before the host vehicle approaches.

本技術分野の背景技術として、特許文献1がある。該公報には、『車両前方の画像を撮像する撮像手段と、前記撮像手段で撮像された画像を、カーブミラーの湾曲形状に対応させて画像処理を行う画像処理手段と、前記画像処理手段が画像処理した画像を、カーブミラーを模した図形中のミラー部分に表示する表示手段と、を備えることを特徴とする表示制御装置』と記載されている(請求項1参照)。ここで「撮像手段」については、該公報の実施例には、『車体に取り付けられた撮像手段としてのカメラ』(段落0019参照)と記載されている。   As a background art of this technical field, there is Patent Document 1. In this publication, “an image processing unit that captures an image in front of a vehicle, an image processing unit that performs image processing on an image captured by the image capturing unit in association with a curved shape of a curve mirror, and the image processing unit are provided. Display means for displaying an image processed image on a mirror portion in a figure imitating a curve mirror ”(refer to claim 1). Here, the “imaging means” is described as “a camera as an imaging means attached to a vehicle body” (see paragraph 0019) in the embodiment of the publication.

特許第4321258号公報Japanese Patent No. 4312258

車両の運転においては、自車両から見て死角に当たる位置に潜む他車両や歩行者の認識が遅れるために事故が発生することがあり、例えば見通しの悪い交差点などで事故が発生しやすくなっている。
特許文献1では、自車両の車体(特に最前部)にカメラを設置することになるので、例えば見通しの悪い交差点では、車体が交差点に差し掛かる程度まで自車両を進めなければ、交差点の左右の状況をカメラで撮像することができず、認識が遅れる。
そこで、本発明の実施例では、自車両が近づく前から死角の状況をドライバーに画像表示する画像受信表示装置、及び画像送受信システムを提供することを課題とする。
When driving a vehicle, an accident may occur due to a delay in recognition of other vehicles or pedestrians lurking in the position corresponding to the blind spot when viewed from the own vehicle. For example, an accident is likely to occur at an intersection with poor visibility. .
In Patent Document 1, since a camera is installed on the vehicle body (especially the foremost part) of the host vehicle, for example, at an intersection with poor visibility, if the host vehicle is not advanced to the extent that the vehicle body approaches the intersection, The situation cannot be captured by the camera, and recognition is delayed.
Accordingly, an object of the embodiment of the present invention is to provide an image reception display device and an image transmission / reception system for displaying an image of a blind spot on a driver before the host vehicle approaches.

上記目的を解決するために、特許請求の範囲に記載の構成を採用する。   In order to solve the above object, the configuration described in the claims is adopted.

本発明によれば、自車両が近づく前から死角の状況をドライバーに画像表示する画像受信表示装置、及び画像送受信システムを提供でき、事故防止に貢献できるという効果がある。   ADVANTAGE OF THE INVENTION According to this invention, the image receiving display apparatus and image transmission / reception system which display the condition of a blind spot on a driver before the own vehicle approaches can be provided, and there exists an effect that it can contribute to accident prevention.

本発明の実施例1における車両用画像送受信システムの構成図。1 is a configuration diagram of a vehicle image transmission / reception system in Embodiment 1 of the present invention. FIG. 本発明の実施例1における車両用画像送受信システムの形態の例を示す図。The figure which shows the example of the form of the image transmission / reception system for vehicles in Example 1 of this invention. 従来のカーブミラーを用いて死角を写した場合の交差点周辺の位置関係の例を示す図。The figure which shows the example of the positional relationship of the intersection periphery at the time of copying a blind spot using the conventional curve mirror. 本発明の実施例1における交差点周辺の位置関係の例を示す図。The figure which shows the example of the positional relationship of the periphery of the intersection in Example 1 of this invention. 本発明の実施例1における受信された画像データの幾何変換前の座標を示す図。The figure which shows the coordinate before the geometric transformation of the received image data in Example 1 of this invention. 本発明の実施例1における受信された画像データの幾何変換後の座標を示す図。The figure which shows the coordinate after the geometric transformation of the received image data in Example 1 of this invention. 本発明の実施例1における出力画像の例を示す図。FIG. 3 is a diagram illustrating an example of an output image in Embodiment 1 of the present invention. 本発明の実施例2における交差点周辺の位置関係の例を示す図。The figure which shows the example of the positional relationship of the periphery of the intersection in Example 2 of this invention. 本発明の実施例2における受信された画像データの幾何変換前の座標を示す図。The figure which shows the coordinate before the geometric transformation of the received image data in Example 2 of this invention. 本発明の実施例2における受信された画像データの幾何変換後の座標を示す図。The figure which shows the coordinate after the geometric transformation of the received image data in Example 2 of this invention. 本発明の実施例2における出力画像の例を示す図。FIG. 6 is a diagram illustrating an example of an output image in Embodiment 2 of the present invention.

以下、本発明の実施形態につき図面を用いて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

以下、本発明における実施例1について詳細に説明する。
図1は、本発明の実施例1における車両用画像送受信システム100を示す構成図である。
車両用画像送受信システム100は、画像撮像送信装置110と、画像受信表示装置120を有する。
Hereinafter, Example 1 in the present invention will be described in detail.
FIG. 1 is a configuration diagram illustrating a vehicular image transmission / reception system 100 according to a first embodiment of the present invention.
The vehicular image transmission / reception system 100 includes an image capturing / transmitting device 110 and an image receiving / displaying device 120.

画像撮像送信装置110は、路上または他車両など、自車両以外の場所に設置された装置で、周辺の画像を広角撮像した画像データと、その画像データが撮像された時の状況を示す撮像パラメータというデータを、画像受信表示装置120に無線伝送する装置である。撮像パラメータについては、後に詳しく説明する。
画像撮像送信装置110は、光学系部111、イメージセンサ部112、信号処理部114、画像圧縮部115、位置・向き出力部118、送信制御部116、送信部117を有する。
The image capturing / transmitting device 110 is a device installed at a place other than the host vehicle, such as on the road or other vehicle, and image data obtained by taking a wide-angle image of a surrounding image and an imaging parameter indicating a situation when the image data is captured. This is a device that wirelessly transmits the data to the image reception display device 120. The imaging parameters will be described in detail later.
The image capturing and transmitting apparatus 110 includes an optical system unit 111, an image sensor unit 112, a signal processing unit 114, an image compression unit 115, a position / orientation output unit 118, a transmission control unit 116, and a transmission unit 117.

光学系部111は、装置周辺の広角な範囲の光学像がイメージセンサ部112のセンサ面に結像されるように構成された光学系である。光学系部111の実際の構成としては、例えば光学系に魚眼レンズを含ませて広角な範囲の光学像を結像させる構成をとることができる。この構成の場合には、カメラの光軸に近い部分(中央部分)では歪が少なく、周辺ほど歪が大きい光学像が得られる。光学像の歪みの程度は、光学系部111全体の光学特性によって決定される。本実施例においては、魚眼レンズを用いた構成の場合を例に説明するが、光学系部111がどのような構成であっても、本実施例の手法を適用できる。   The optical system unit 111 is an optical system configured so that a wide-angle optical image around the apparatus is formed on the sensor surface of the image sensor unit 112. As an actual configuration of the optical system unit 111, for example, a configuration in which a fisheye lens is included in the optical system to form an optical image in a wide angle range can be taken. In the case of this configuration, an optical image with less distortion at the portion (center portion) close to the optical axis of the camera and greater distortion at the periphery can be obtained. The degree of distortion of the optical image is determined by the optical characteristics of the entire optical system 111. In this embodiment, a case using a fisheye lens will be described as an example, but the method of this embodiment can be applied regardless of the configuration of the optical system unit 111.

イメージセンサ部112は、光学系部111によって結像された光学像を光電変換し、A/D変換してデジタルデータである画像データとして信号処理部114に出力する。前記光学系部111によって生じた光学像の歪みは、出力される画像データに画像の歪みとして継承される。
信号処理部114は、画像データに、必要に応じて黒レベル補正、ホワイトバランス補正、デモザイキング、ガンマ補正などの一連の処理をして、生成された画像データを画像圧縮部115に出力する。
画像圧縮部115は、画像データを画像圧縮して、送信部117に出力する。
The image sensor unit 112 photoelectrically converts the optical image formed by the optical system unit 111, performs A / D conversion, and outputs the converted image data to the signal processing unit 114 as digital data. The distortion of the optical image generated by the optical system unit 111 is inherited as the distortion of the image in the output image data.
The signal processing unit 114 performs a series of processes such as black level correction, white balance correction, demosaicing, and gamma correction on the image data as necessary, and outputs the generated image data to the image compression unit 115.
The image compression unit 115 compresses the image data and outputs it to the transmission unit 117.

位置・向き出力部118は、画像撮像送信装置110が設置された位置と方向を示す情報を、送信制御部116に出力する。位置と方向の確認方法はどのようなものであっても良いが、例えば、GPS(Global Positioning SYstem)を用いて位置を検出する方法、磁気センサによって方位を検出する方法、信号処理部114の出力画像データから画像認識によって求める方法、設置時に手動で入力する方法などを用いることができるが、上記以外の方法でもよい。
送信制御部116は、光学系部111の光学特性に関する情報を光学系部111から受け取り、また画像撮像送信装置110が設置された位置と方向を示す情報を位置・向き出力部118から受け取り、双方を撮像されたときの状況を示す撮像パラメータと呼ばれるデータとして、送信部117に出力する。
送信部117は、画像圧縮部115から出力された画像データと、送信制御部116から出力された撮像パラメータを無線送信する。
The position / orientation output unit 118 outputs information indicating the position and direction where the image capturing and transmitting apparatus 110 is installed to the transmission control unit 116. Any method may be used for confirming the position and direction. For example, a method of detecting a position using GPS (Global Positioning System), a method of detecting an azimuth by a magnetic sensor, and an output of the signal processing unit 114 A method of obtaining image data by image recognition, a method of inputting manually at the time of installation, and the like can be used, but methods other than those described above may be used.
The transmission control unit 116 receives information on the optical characteristics of the optical system unit 111 from the optical system unit 111, and receives information indicating the position and direction where the image capturing / transmitting device 110 is installed from the position / orientation output unit 118. Is output to the transmission unit 117 as data called imaging parameters indicating the situation when the image is captured.
The transmission unit 117 wirelessly transmits the image data output from the image compression unit 115 and the imaging parameter output from the transmission control unit 116.

送信画像処理部113は、信号処理部114、画像圧縮部115を有する。一般的には、無線伝送に必要な帯域を節約できるので、送信前に画像圧縮を行うが、回路の簡単化などのために画像圧縮を行わない場合も考えられる。その場合には、送信画像処理部113の構成要素から画像圧縮部115を削除して、信号処理部114の出力をそのまま送信部117に出力する構成とすることもできる。この場合は圧縮部のコストを節約できる。また、送信画像処理部113の内部に、画像認識などその他の画像処理を施す要素を追加した構成としてもよい。また、信号処理部114の内部に、画像データの歪を軽減するような幾何変換処理を施す要素を追加した構成としてもよい。信号処理部114の内部に画像の歪みを変化させる幾何変換処理を適用した場合には、送信される画像データの歪みの程度を表すように、前記撮像パラメータ内に記述される画像の歪みの程度を表す情報を、送信制御部116内部で適宜補正して送信するようにする。   The transmission image processing unit 113 includes a signal processing unit 114 and an image compression unit 115. Generally, since the bandwidth required for wireless transmission can be saved, image compression is performed before transmission, but there may be a case where image compression is not performed to simplify the circuit. In that case, the image compression unit 115 may be deleted from the components of the transmission image processing unit 113 and the output of the signal processing unit 114 may be output to the transmission unit 117 as it is. In this case, the cost of the compression unit can be saved. Further, the transmission image processing unit 113 may have a configuration in which elements for performing other image processing such as image recognition are added. Further, the signal processing unit 114 may have a configuration in which an element for performing a geometric transformation process that reduces distortion of image data is added. When a geometric transformation process that changes image distortion is applied to the inside of the signal processing unit 114, the degree of image distortion described in the imaging parameters so as to represent the degree of distortion of image data to be transmitted. Is appropriately corrected in the transmission control unit 116 and transmitted.

画像受信表示装置120は、自車両に設置された装置で、画像撮像送信装置110から無線伝送された画像データに、同じく無線伝送された撮像パラメータに基づく画像処理を施して、ドライバーに対して画像表示する装置である。
画像受信表示装置120は、受信部121、画像復号部123、幾何変換部124、受信制御部125、表示部126、位置・向き出力部127を有する。
受信部121は、画像撮像送信装置110から無線伝送された画像データを画像復号部123に出力する。また、受信部121は、画像撮像送信装置110から無線伝送された撮像パラメータを受信制御部125に出力する。
画像復号部123は、受信部121から出力された画像データを復号して幾何変換部124に出力する。
The image receiving / displaying device 120 is a device installed in the host vehicle, and performs image processing based on imaging parameters that are also wirelessly transmitted on the image data wirelessly transmitted from the image capturing / transmitting device 110, so that an image is displayed to the driver. It is a device to display.
The image reception display device 120 includes a reception unit 121, an image decoding unit 123, a geometric conversion unit 124, a reception control unit 125, a display unit 126, and a position / orientation output unit 127.
The receiving unit 121 outputs the image data wirelessly transmitted from the image capturing / transmitting device 110 to the image decoding unit 123. In addition, the reception unit 121 outputs imaging parameters wirelessly transmitted from the image imaging transmission device 110 to the reception control unit 125.
The image decoding unit 123 decodes the image data output from the receiving unit 121 and outputs the decoded image data to the geometric transformation unit 124.

位置・向き出力部127は、画像受信表示装置120の位置と方向、もしくはその位置と方向から推定される自車両のドライバーの乗車位置と方向を示す情報を、受信制御部125に出力する。位置、向きの確認方法はどのようなものであっても良く、例えば、GPS(Global Positioning SYstem)を用いて位置を検出する方法、加速度センサを用いて位置の変化を検出する方法、磁気センサによって方位を検出する方法などを用いることができるが、上記の方法以外でもよい。
受信制御部125は、受信部から出力された撮像パラメータを、幾何変換部124に出力する。
幾何変換部124は、受信制御部125から出力された撮像パラメータと、位置・向き出力部127から出力された前記位置と方向に基づいた幾何変換処理を実施して、所望の幾何特性を持った映像を作り出して、表示部126に出力する。
表示部126は、幾何変換部124から出力された画像データに基づく画像を表示する。
The position / orientation output unit 127 outputs information indicating the position and direction of the image reception display device 120 or the boarding position and direction of the driver of the host vehicle estimated from the position and direction to the reception control unit 125. Any method for confirming the position and orientation may be used. For example, a method for detecting a position using GPS (Global Positioning System), a method for detecting a change in position using an acceleration sensor, or a magnetic sensor. A method of detecting the orientation can be used, but other methods may be used.
The reception control unit 125 outputs the imaging parameter output from the reception unit to the geometric conversion unit 124.
The geometric conversion unit 124 performs a geometric conversion process based on the imaging parameter output from the reception control unit 125 and the position and direction output from the position / orientation output unit 127, and has a desired geometric characteristic. An image is created and output to the display unit 126.
The display unit 126 displays an image based on the image data output from the geometric conversion unit 124.

受信画像処理部122は、例えば画像復号部123、幾何変換部124を有する。一般的には、無線伝送の帯域を節約できるので、送信前に画像圧縮を行うが、回路の簡単化などのために画像圧縮を行わない場合も考えられる。その場合には、受信画像処理部122から画像復号部123を削除して、受信部121の出力をそのまま幾何変換部124に出力する構成とすることもできる。この場合は画像復号部123の回路コストを抑えるとともに、圧縮画像を復号した場合の画質劣化を防ぐことができる。また、受信画像処理部122の内部に、画像認識などその他の画像処理を施す要素を追加した構成としてもよい。また、受信画像処理部122の内部に、GUI(Graphical User Interface)のための表示画面を重畳するための要素を追加した構成としてもよい。   The received image processing unit 122 includes, for example, an image decoding unit 123 and a geometric conversion unit 124. Generally, since the bandwidth of wireless transmission can be saved, image compression is performed before transmission, but there is a case where image compression is not performed for simplification of the circuit. In that case, the image decoding unit 123 may be deleted from the received image processing unit 122 and the output of the receiving unit 121 may be output to the geometric transformation unit 124 as it is. In this case, the circuit cost of the image decoding unit 123 can be suppressed, and image quality degradation when a compressed image is decoded can be prevented. The reception image processing unit 122 may have a configuration in which elements for performing other image processing such as image recognition are added. In addition, an element for superimposing a display screen for GUI (Graphical User Interface) may be added to the inside of the received image processing unit 122.

以上、図1を用いて説明した通り、画像撮像送信装置110は、画像データと共に撮像パラメータというデータを送信し、画像受信表示装置120は、撮像パラメータに基づいて画像データに幾何変換処理を適用する。画像受信表示装置120では、この撮像パラメータを幾何変換処理に活用することによって、画像撮像送信装置110によって生じる画像の歪みを処理して、任意の望ましい映像を表示することができるようになる。   As described above with reference to FIG. 1, the image capturing / transmitting device 110 transmits data called imaging parameters together with image data, and the image receiving / displaying device 120 applies geometric transformation processing to the image data based on the imaging parameters. . The image receiving / displaying device 120 can display any desired video by processing the image distortion generated by the image capturing / transmitting device 110 by using the imaging parameter in the geometric transformation process.

図2は、車両用画像送受信システム100の形態の例を示す図である。この図は、自車両202が交差点に進入しようと前進している時の様子を、自車両の後方から見た図である。この図では、図1で示した画像撮像送信装置110は例えば路上に固定されており、図1で示した画像受信表示装置120は、自車両202に搭載されている。
この図では、画像撮像送信装置110は、信号機201に対して支柱200を共有する形で、高い位置に設置されている。このような高い位置から広角の映像を撮像することで、交差点周辺の状況を広い範囲で撮影することができるようになる。画像撮像送信装置110は、建築物に固定されていたり、自車両以外の車両に設置されていたり、飛行機に搭載されているなど、図2で示す以外の場所に設置されていても良い。
FIG. 2 is a diagram illustrating an example of a form of the vehicle image transmission / reception system 100. This figure is the figure which looked at the mode when the own vehicle 202 is moving forward approaching the intersection from the back of the own vehicle. In this figure, the image capturing and transmitting apparatus 110 shown in FIG. 1 is fixed on the road, for example, and the image receiving and displaying apparatus 120 shown in FIG.
In this figure, the image capturing / transmitting device 110 is installed at a high position so as to share the column 200 with the traffic light 201. By capturing a wide-angle image from such a high position, the situation around the intersection can be captured in a wide range. The image capturing / transmitting device 110 may be installed in a place other than that shown in FIG. 2, such as being fixed to a building, installed in a vehicle other than the host vehicle, or installed in an airplane.

画像受信表示装置120は自車両202に搭載されるが、特に表示部126は、ドライバーにとって見やすい位置に設置される。表示部126は、例えば車載カーナビゲーションシステムなど他の車載機器のディスプレイと共有される形態や、フロントガラスの一部に投影される形態など、どのように設置されても良い。
以上説明したように、図1の車両用画像送受信システム100は、図2のような形態で、例えば路上及び車両に別れて設置される。本実施例においては、画像撮像装置110でドライバーの死角の状況を含んだ映像を撮像し、その映像を画像受信表示装置120で、ドライバーにとって見やすいように加工して表示することができる。このため、ドライバーは死角の状況を把握しやすくなり、事故を未然に防止できる。
次項からは、具体的に見通しの悪い交差点を例に示し、死角の状況を確認する手法に関し、従来の手法の課題と本実施例の優位性について説明する。
The image reception display device 120 is mounted on the host vehicle 202, and in particular, the display unit 126 is installed at a position that is easy for the driver to see. The display unit 126 may be installed in any manner such as a form shared with a display of another in-vehicle device such as an in-vehicle car navigation system or a form projected on a part of the windshield.
As described above, the vehicular image transmission / reception system 100 in FIG. 1 is installed in a form as shown in FIG. In this embodiment, an image including the driver's blind spot condition can be captured by the image capturing device 110, and the image can be processed and displayed by the image receiving display device 120 so that the image can be easily viewed by the driver. This makes it easier for the driver to grasp the blind spot and prevent accidents.
From the next section, an example of an intersection with a poor view will be given as an example, and the problem of the conventional method and the superiority of this embodiment will be described with respect to the method of confirming the blind spot situation.

図3は、カーブミラーを見通しの悪い交差点に設置することで、自車両から死角の状況を確認するという従来の手法の例を示す図である。本図では、自車両202が前進して、交差点に進入する直前を示している。歩行者303や他車両304は、自車両202のドライバーから見て、ビル(障害物)301、302の死角の位置にあたるとする。もし自車両の進行方向の信号305が青色であったとしても、歩行者303が無理な横断をする場合があり、他車両304が信号を見落として直進してくる場合があるなど、危険な状況に巻き込まれる可能性がある。しかし、死角で発生している危険な状況を、自車両202のドライバーが予め肉眼で危険を認識することはできない。   FIG. 3 is a diagram illustrating an example of a conventional technique in which a blind mirror is confirmed from the host vehicle by installing a curve mirror at an intersection where visibility is poor. This figure shows a state immediately before the host vehicle 202 moves forward and enters an intersection. It is assumed that the pedestrian 303 and the other vehicle 304 correspond to the blind spots of the buildings (obstacles) 301 and 302 when viewed from the driver of the host vehicle 202. Even if the traveling direction signal 305 of the host vehicle is blue, the pedestrian 303 may forcibly cross the road, and the other vehicle 304 may overlook the signal and go straight ahead. There is a possibility of getting involved. However, the dangerous situation occurring in the blind spot cannot be recognized by the driver of the own vehicle 202 with the naked eye in advance.

このような状況をドライバーに見せるための従来の方法として、例えばカーブミラー310を設置する方法がある。しかし、図3のようにカーブミラー310と自車両202が離れている状況では、自車両202のドライバーから、カーブミラー310越しに見える交差点の状況は小さく写るため、ドライバーが死角の状況を認識するのは難しい。また、カーブミラー310の設置位置に関しても、当然、サイズや位置や角度など物理的な制約があるため、ドライバーから視認しやすい位置を自由に選んで配置することはできない。
また、特許文献1の手法であっても、自車両202の、特に最前部にカメラを設置することになるので、車体が交差点に差し掛かる程度まで自車両を進めなければ、交差点の左右の状況をカメラで撮像することができず、認識が遅れるという問題がある。
As a conventional method for showing such a situation to the driver, for example, there is a method of installing a curve mirror 310. However, in the situation where the curve mirror 310 and the host vehicle 202 are separated as shown in FIG. 3, the situation of the intersection seen through the curve mirror 310 appears small from the driver of the host vehicle 202, so the driver recognizes the blind spot situation. Is difficult. Also, regarding the installation position of the curve mirror 310, of course, there are physical restrictions such as size, position, and angle, so it is not possible to freely select and arrange a position that can be easily viewed by the driver.
Further, even with the method of Patent Document 1, since the camera is installed particularly at the forefront of the host vehicle 202, the situation of the left and right of the intersection must be advanced unless the host vehicle is advanced to the extent that the vehicle body reaches the intersection. Cannot be captured by the camera, and recognition is delayed.

図4は、本実施例の手法を用いた場合の死角の視認方法の例を示す図である。図3の場合と同じ条件で、交差点の付近に自車両202、歩行者303、他車両304、ビル(障害物)301、302が存在している。また、図4では、自車両の進行方向の信号305に対し、図2の信号機201に対すると同様に画像撮像送信装置110が搭載され、自車両202に図2と同様に画像受信表示装置120が搭載されている。本実施例においては、画像撮像送信装置110で撮像した画像データを元に、画像受信表示装置120において、死角の状況をドライバーに視認しやすい形に幾何変換して提供する。
まず、図4において、画像撮像送信装置110は、高所に設置された広角のカメラであるとして、自車両202、歩行者303、他車両304、ビル(障害物)301、302を、すべて撮像できる画角で設置されているとする。つまり、画像撮像送信装置110で撮像した画像データには、自車両202のドライバーにとっての死角に関する情報が含まれている。
FIG. 4 is a diagram illustrating an example of a method for visually recognizing a blind spot when the method of the present embodiment is used. Under the same conditions as in FIG. 3, the own vehicle 202, a pedestrian 303, another vehicle 304, and buildings (obstacles) 301 and 302 exist near the intersection. In FIG. 4, an image capturing / transmitting device 110 is mounted on the signal 305 in the traveling direction of the host vehicle as in the case of the traffic light 201 in FIG. 2, and the image receiving display device 120 is mounted on the host vehicle 202 as in FIG. 2. It is installed. In the present embodiment, based on the image data captured by the image capturing and transmitting apparatus 110, the image receiving and displaying apparatus 120 provides the blind spot situation in a form that is easy for the driver to visually recognize.
First, in FIG. 4, assuming that the image capturing / transmitting device 110 is a wide-angle camera installed at a high place, all of the own vehicle 202, a pedestrian 303, another vehicle 304, and buildings (obstacles) 301 and 302 are imaged. It is assumed that it is installed with a possible angle of view. That is, the image data captured by the image capturing / transmitting device 110 includes information regarding the blind spot for the driver of the host vehicle 202.

画像撮像送信装置110で撮像した映像を、ドライバーにとって死角の状況を確認しやすい映像に変換するために、本実施例においては、まず仮想ミラー406と仮想視点405を定義する。仮想ミラー406とは、所定の曲率を持った仮想的なカーブミラーで、それが例えば、図4に示す位置で車道上に設置されていると想定する。この仮想ミラー406の曲率、位置、方向、大きさは任意に設定できる。仮想視点405とは、仮想ミラー406に映った像を撮像する仮想的なカメラで、それが例えば図4に示す位置に設置されていると想定する。仮想視点405の位置は、任意に設定できるが、方向に関しては、仮想ミラー406の方向を向いているとする。本実施例では、仮想視点405及び仮想ミラー406を想定し、仮想光軸407に示すように歩行者303、他車両304を含む広角の周囲の状況をドライバーが認識できるようにする。このために、仮想ミラー406で反射されて仮想視点405で撮像された画像を、ドライバーに対し交差点の死角を未だ直視できない時点において、画像受信表示装置120(図1あるいは図2)の表示部126(図1)に表示するものである。   In this embodiment, first, a virtual mirror 406 and a virtual viewpoint 405 are defined in order to convert an image captured by the image capturing / transmitting device 110 into an image in which the driver can easily confirm the blind spot. The virtual mirror 406 is a virtual curve mirror having a predetermined curvature, and is assumed to be installed on the roadway at the position shown in FIG. 4, for example. The curvature, position, direction, and size of the virtual mirror 406 can be arbitrarily set. The virtual viewpoint 405 is a virtual camera that captures an image reflected on the virtual mirror 406, and is assumed to be installed at a position shown in FIG. The position of the virtual viewpoint 405 can be arbitrarily set, but the direction is assumed to be directed to the virtual mirror 406. In this embodiment, a virtual viewpoint 405 and a virtual mirror 406 are assumed, and a driver can recognize a wide-angle surrounding situation including a pedestrian 303 and another vehicle 304 as indicated by a virtual optical axis 407. For this reason, the display unit 126 of the image receiving display device 120 (FIG. 1 or FIG. 2), when the image reflected at the virtual mirror 406 and captured at the virtual viewpoint 405 is still not directly visible to the driver at the intersection blind spot. (FIG. 1).

本実施例では、画像撮像送信装置110で撮像された実際の画像データに、画像受信表示装置120の幾何変換部124において幾何変換処理を施し、このような仮想視点405で撮像された映像と幾何学的に対応する画像データを作り出して表示する。図4の例では、仮想視点405は、自車両202の進行方向に位置し、自車両202の進行方向を映し出す向きで存在しているので、自車両が仮想視点405の地点に差し掛かった際に仮想ミラー406を見た場合に、ドライバー席から見える風景を表示していることになり、ドライバーにとって位置関係を把握しやすい。また、自車両202よりも交差点に近い位置を視点とすることができるので、死角の状況を、予め大きな映像で確認することができる。そのため、事故を未然に防ぐことができるようになる。   In the present embodiment, the actual image data captured by the image capturing / transmitting device 110 is subjected to a geometric conversion process in the geometric conversion unit 124 of the image receiving and displaying device 120, and the image and the geometric image captured at the virtual viewpoint 405 are used. Create and display scientifically corresponding image data. In the example of FIG. 4, the virtual viewpoint 405 is located in the traveling direction of the host vehicle 202 and exists in a direction that reflects the traveling direction of the host vehicle 202, so when the host vehicle approaches the point of the virtual viewpoint 405. When the virtual mirror 406 is viewed, the scenery seen from the driver's seat is displayed, so that the driver can easily grasp the positional relationship. Further, since the position closer to the intersection than the own vehicle 202 can be set as the viewpoint, the blind spot can be confirmed in a large image in advance. Therefore, accidents can be prevented beforehand.

図4に示した仮想視点405から見た映像は、画像撮像送信装置110で撮像された画像データに基づき、画像受信表示装置120における幾何変換処理を介したうえで、表示部126に表示される。
以下、図4の場合の幾何変換処理の例について図5、図6を用いて説明する。
図5は、図4の状況で撮像された、幾何変換前の画像の座標の例を示している。イメージセンサ部の出力画像範囲501は、図1のイメージセンサ部112から出力される画像の範囲を示している。本図の例では、光学系部111が魚眼レンズを含む構成となっており、図4の場合と同様に、画像撮像送信装置110が、信号機程度の高い位置で、光軸が鉛直下を向くように設置されている場合を想定している。図中の破線は、仮に地面の高さに東西、南北方向にメッシュ状の格子線が引かれていた場合に撮像される線を示しており、画像の歪みの程度を表している。光学系部111に魚眼レンズを使用しているので、図のように周辺部ほど画像が歪んでいる。本図の例の場合には、イメージセンサ部の出力画像501のX−Y軸は、それぞれ(+X)が北、(−X)が南、(+Y)が東、(−Y)が西の向きに合うように合わせてある。
The video viewed from the virtual viewpoint 405 illustrated in FIG. 4 is displayed on the display unit 126 through the geometric transformation process in the image reception display device 120 based on the image data captured by the image capturing / transmitting device 110. .
Hereinafter, an example of the geometric transformation process in the case of FIG. 4 will be described with reference to FIGS.
FIG. 5 shows an example of the coordinates of an image taken in the situation of FIG. 4 before geometric transformation. An output image range 501 of the image sensor unit indicates a range of an image output from the image sensor unit 112 of FIG. In the example of this figure, the optical system unit 111 is configured to include a fisheye lens, and as in the case of FIG. 4, the image capturing and transmitting apparatus 110 is arranged so that the optical axis is vertically downward at a position as high as a traffic light. Is assumed to be installed. A broken line in the figure indicates a line captured when a mesh-like grid line is drawn in the east-west and north-south direction on the ground level, and represents the degree of image distortion. Since a fisheye lens is used for the optical system 111, the image is distorted toward the periphery as shown in the figure. In the case of this example, the XY axes of the output image 501 of the image sensor unit are (+ X) north, (−X) south, (+ Y) east, (−Y) west, respectively. It is tailored to suit the direction.

イメージセンサ部の出力画像範囲501のうち、図4の仮想視点405から、仮想ミラー406を通じて見える範囲を幾何変換処理の対象とする。図4の位置関係では、仮想ミラー406は、画像撮像送信装置110から見てやや北東の方角に位置している。また、仮想視点405は、仮想ミラーの位置から見て東の方角に位置している。そのため、仮想ミラー406を介して仮想視点405から撮像できる範囲は、仮想光軸407によって示されるように、画像撮像送信装置110から見て南側、東側、北側の方角に広く分布しており、その光軸中心はやや北寄りとなっている。このような範囲の像は、図5の画像データ上において504で示される範囲(幾何変換処理範囲;図中に太線で示す)となる。ここで、幾何変換処理範囲504の四つの端点を、A点505、B点506、C点507、D点508とする。   Of the output image range 501 of the image sensor unit, the range that can be seen through the virtual mirror 406 from the virtual viewpoint 405 in FIG. In the positional relationship of FIG. 4, the virtual mirror 406 is located slightly in the northeast direction when viewed from the image capturing / transmitting device 110. The virtual viewpoint 405 is located in the east direction as viewed from the position of the virtual mirror. Therefore, the range that can be imaged from the virtual viewpoint 405 via the virtual mirror 406 is widely distributed in the south, east, and north directions as seen from the image imaging transmission device 110, as indicated by the virtual optical axis 407. The center of the optical axis is slightly north. The image in such a range is a range indicated by 504 on the image data in FIG. 5 (geometric transformation processing range; indicated by a bold line in the figure). Here, it is assumed that the four end points of the geometric transformation processing range 504 are an A point 505, a B point 506, a C point 507, and a D point 508.

図6は、本図は、図5の幾何変換処理範囲504内の画素が、幾何変換処理によって、図6の幾何変換処理範囲504に写像された場合の、幾何変換後の画像の座標の例を示す。図6では、座標はX2−Y2軸で表され、仮想視点の座標503を中央部として、仮想カメラの下方向が(+Y2)、上方向が(−Y2)、右方向が(+X2)、左方向が(−X2)と一致する。幾何変換処理範囲504と重なるようにして、表示部に対する出力画像範囲600(図中に太い破線で示す)を定義する。
図5のA点505、B点506、C点507、D点508は、図6のA点505、B点506、C点507、D点508に写像される。図5で、C点507及びD点508は、A点505及びB点506よりも東の方角に存在している。東寄りに存在する物体から来る光軸は、仮想ミラー406で反射されて、仮想カメラ406に対して、上寄りの方向から入るため、図6では、C点507及びD点508は、A点505及びB点506よりも、画像の上方向に写像される。
また、図5で、A点505及びC点507は、B点506及びD点508よりも南側の位置に存在している。図4で、仮想カメラ405の左方向が南、右方向が北に相当するため、図6では、A点505及びC点507は、B点506及びD点508よりも南側に写像される。
FIG. 6 shows an example of the coordinates of the image after geometric transformation when the pixels in the geometric transformation processing range 504 in FIG. 5 are mapped to the geometric transformation processing range 504 in FIG. 6 by the geometric transformation processing. Indicates. In FIG. 6, the coordinates are represented by the X2-Y2 axes, the virtual viewpoint coordinate 503 is the center, the downward direction of the virtual camera is (+ Y2), the upward direction is (−Y2), the right direction is (+ X2), and the left The direction matches (−X2). An output image range 600 (indicated by a thick broken line in the figure) for the display unit is defined so as to overlap with the geometric transformation processing range 504.
A point 505, B point 506, C point 507, and D point 508 in FIG. 5 are mapped to A point 505, B point 506, C point 507, and D point 508 in FIG. In FIG. 5, the C point 507 and the D point 508 exist in the east direction from the A point 505 and the B point 506. Since the optical axis coming from the object existing on the east side is reflected by the virtual mirror 406 and enters the virtual camera 406 from the upper side, the C point 507 and the D point 508 in FIG. The image is mapped above the image 505 and the B point 506.
In FIG. 5, the point A 505 and the point C 507 are present on the south side of the point B 506 and the point D 508. 4, the left direction of the virtual camera 405 corresponds to the south, and the right direction corresponds to the north. Therefore, in FIG. 6, the point A 505 and the point C 507 are mapped to the south side of the point B 506 and the point D 508.

図7は、表示部の出力画像700の例である。この画像は、図6のように表示部の出力画像範囲600に写像された画素が、画像データとして図1の表示部126で表示された場合に写る映像の例を示している。図4で、死角の位置に存在していた歩行者303及び他車両304が、図7においては大きく表示されている。また、自車両202のように、図4の仮想ミラー406から遠い位置に存在する物体は小さく見える。
また、現実のカーブミラーは、湾曲することで広角の範囲を一度に映し出せるように設計されている。これと同様に、仮想ミラー406も所定の曲率で湾曲しており、特に周辺部にあえて歪を加えることで広角の範囲を表示できるようにしている。このような仮想画像を自車両202のドライバーに表示することによって、死角の状況を、死角のすぐ近くから撮像された画像として、予めドライバーが確認することができるので、事故を未然に防ぐことができる。
FIG. 7 is an example of the output image 700 of the display unit. This image shows an example of a video image that is displayed when pixels mapped in the output image range 600 of the display unit as shown in FIG. 6 are displayed as image data on the display unit 126 of FIG. In FIG. 4, the pedestrian 303 and the other vehicle 304 that existed at the blind spot are displayed in a large size in FIG. 7. Also, an object that is located far from the virtual mirror 406 in FIG.
In addition, an actual curve mirror is designed so that a wide-angle range can be projected at a time by being curved. Similarly, the virtual mirror 406 is also curved with a predetermined curvature, and a wide-angle range can be displayed by adding distortion to the peripheral portion. By displaying such a virtual image to the driver of the host vehicle 202, the driver can confirm in advance the blind spot situation as an image captured from the immediate vicinity of the blind spot, thereby preventing an accident in advance. it can.

図5のイメージセンサ部の出力画像範囲501から、図6の表示部の出力画像範囲600へ写像する変換は、幾何変換部124において実施される。このような変換について、数式を用いて以下に説明する。
画像撮像送信装置110のイメージセンサ部112で撮像された画像データ上の座標を図5に示されるように(X,Y)、画像受信表示装置120の表示部126へ出力される画像データ上の座標を図6に示されるように(X2,Y2)とすると、幾何変換部124における幾何変換処理fallは、fからfの5種類の幾何変換処理を総合した処理となっており、それらは(数式1)に示す関係となる。
(X2,Y2)=fall(X,Y)=fffff(X,Y) ・・・(数式1)
ただし、
f;光学系部の光学特性によって生じた画像の歪みを補正して、歪みのない画像にする、もしくは歪みが軽減された画像にするための非線形変換処理。
f;画像撮像送信装置110の位置及び方向の変化によって生じる視点の移動及び回転を除去するための移動及び回転変換処理。
f;仮想ミラー406によって生じる鏡面反転変換処理。
f;所定の曲率を備えた仮想ミラー406の歪みを再現し、広角な領域を表示するためにあえて歪みを加える非線形変換処理。
f;仮想視点405の位置、方向から見た映像に変換するための、移動及び回転変換処理。
A conversion for mapping from the output image range 501 of the image sensor unit in FIG. 5 to the output image range 600 of the display unit in FIG. 6 is performed in the geometric conversion unit 124. Such conversion will be described below using mathematical expressions.
As shown in FIG. 5 (X, Y), the coordinates on the image data captured by the image sensor unit 112 of the image capturing / transmitting device 110 are on the image data output to the display unit 126 of the image receiving display device 120. Assuming that the coordinates are (X2, Y2) as shown in FIG. 6, the geometric transformation process f all in the geometric transformation unit 124 is a process in which five types of geometric transformation processes from f 1 to f 5 are integrated. They have the relationship shown in (Formula 1).
(X2, Y2) = f all (X, Y) = f 5 f 4 f 3 f 2 f 1 (X, Y) (Formula 1)
However,
f 1 ; Non-linear conversion processing for correcting an image distortion caused by the optical characteristics of the optical system unit to obtain an image without distortion or an image with reduced distortion.
f 2 ; movement and rotation conversion processing for removing the movement and rotation of the viewpoint caused by the change in the position and direction of the image capturing and transmitting apparatus 110.
f 3 ; mirror inversion conversion processing generated by the virtual mirror 406.
f 4 ; Nonlinear conversion processing for reproducing the distortion of the virtual mirror 406 having a predetermined curvature and adding distortion to display a wide-angle region.
f 5 ; movement and rotation conversion processing for converting the video viewed from the position and direction of the virtual viewpoint 405.

(数式1)の幾何変換処理のうちfとfとfは、表示したい視点の位置、向き、表示する際の画像の歪みに係るので、図1の受信制御部125の内部で任意に指定することができる。一方でfとfは、画像撮像送信装置110の光学特性及び設置位置及び方向によって決定される項目である。幾何変換部124は、画像受信表示装置120に含まれているので、fとfに関しては、画像受信表示装置120内に存在する情報だけではパラメータ(変数)を確定させることができない。
そこで、本実施例においては、fとfの数式、もしくはそれらの数式を構成するパラメータに関して、撮像パラメータとして、画像撮像送信装置110から画像受信表示装置120へ無線伝送することを特徴としている。このようにすることで、幾何変換部124で実施する幾何変換処理の数式を確定させることができ、適切な歪補正処理を実施することができるようになる。そのため、ドライバーの死角に当たる部分の状況を、視認しやすい形で表示することができ、事故を防止することができる。
Of the geometric transformation processing of (Formula 1), f 3 , f 4, and f 5 are related to the position and orientation of the viewpoint to be displayed, and the distortion of the image at the time of display, and therefore arbitrary within the reception control unit 125 of FIG. Can be specified. On the other hand, f 1 and f 2 are items determined by the optical characteristics, the installation position, and the direction of the image capturing and transmitting apparatus 110. Geometric conversion unit 124, because it contains the image receiving display device 120, for f 1 and f 2, only the information present in the image receiving display device 120 can not be determined parameters (variables).
Therefore, the present embodiment is characterized in that the mathematical formulas of f 1 and f 2 or parameters constituting those mathematical formulas are wirelessly transmitted from the imaging imaging transmission device 110 to the image reception display device 120 as imaging parameters. . By doing so, the mathematical expression of the geometric transformation process performed by the geometric transformation unit 124 can be confirmed, and an appropriate distortion correction process can be performed. Therefore, the situation of the portion corresponding to the blind spot of the driver can be displayed in a form that is easy to visually recognize, and an accident can be prevented.

本実施例においては、f1からfの5種類の幾何変換処理を総合した幾何変換処理を例に説明したが、実際にはどのような非線形変換であってもよく、幾何変換処理の順序を入れ替え、幾何変換処理の一部を取り除き、或いは、別の幾何変換処理を加えても良い。例えば、図1の信号処理部114内で、画像の歪を軽減し、或いは、位置や方向のずれを正規化するために、fもしくはfの幾何変換処理の一部を実施しても良い。その場合には、撮像された際の光学特性、位置、方向の情報については、送信される画像データに合うように送信制御部116において修正したものを、撮像パラメータとして送信する。 In the present embodiment, the geometric transformation process in which the five types of geometric transformation processes f 1 to f 5 are combined has been described as an example. However, in practice, any nonlinear transformation may be used, and the order of the geometric transformation process May be replaced, a part of the geometric transformation process may be removed, or another geometric transformation process may be added. For example, in the signal processing unit 114 shown in FIG. 1, a part of the geometric transformation processing of f 1 or f 2 may be performed in order to reduce image distortion or normalize the displacement of the position or direction. good. In that case, the information about the optical characteristics, position, and direction at the time of image capturing is corrected by the transmission control unit 116 so as to match the transmitted image data, and is transmitted as an image capturing parameter.

以下、本発明における実施例2について詳細に説明する。
実施例2においても、実施例1と同様に、自車両202が見通しの悪い交差点に進入しようとしている場合に、ドライバーの死角の映像を予め、視認しやすいように表示することを課題とする。実施例2では、構成及び形態についても実施例1と同様であり、構成については、実施例1の図1の車両用画像送受信システム100と同様であり、また形態については、実施例1の図2と同様となる。手段としては、実施例1の場合と同様に、画像撮像送信装置110で撮像した画像データに対して、画像受信表示装置120において幾何変換処理を適用して、ドライバーにとって見やすい映像を作り出すものであるが、実施例2では以下に示すように、作り出す映像の視点が実施例1の場合と異なり、また、その視点からの映像を作り出す幾何変換処理が実施例1の場合と異なる。以下に、その違いを説明する。
Hereinafter, Example 2 in the present invention will be described in detail.
In the second embodiment, as in the first embodiment, when the host vehicle 202 is about to enter an intersection with poor visibility, it is an object to display a blind spot image of the driver in advance so that it can be easily seen. In the second embodiment, the configuration and the configuration are the same as those in the first embodiment, the configuration is the same as that of the vehicle image transmission / reception system 100 in FIG. 1 of the first embodiment, and the configuration is the same as that in the first embodiment. Same as 2. As a means, as in the case of the first embodiment, the image receiving display device 120 applies geometric transformation processing to the image data captured by the image capturing / transmitting device 110 to create a video that is easy for the driver to see. However, in the second embodiment, as will be described below, the viewpoint of the video to be created is different from that in the first embodiment, and the geometric transformation process for creating the video from that viewpoint is different from that in the first embodiment. The difference will be described below.

図8は、実施例2の手法を用いた場合の死角の視認方法の例を示す図である。図8の画像撮像送信装置110、画像受信表示装置120、自車両202、ビル(障害物)301、ビル(障害物)302、歩行者303、他車両304、自車両の進行方向の305は、図3と同様である。実施例1においては、図4の仮想視点405と仮想ミラー406を定義して、幾何変換処理によって、仮想視点405から見た映像に相当する画像を作り出した。これに対して、実施例2においては、図8のように交差点の付近に仮想視点800を定義する。仮想視点800は、高所から地上の方向を見下ろす形に設置されていると想定し、実施例2の場合には、この仮想視点800を画面の中央部とした、上空から見下ろす視点の画像を作り出してドライバーに表示する。このとき、自車両202の進行方向が表示される画像の上方向となるように、必要に応じて回転方向の幾何変換をかける。上空から見下ろした映像を表示することで、ドライバーは交差点周辺の状況を、実写で予め知ることができるので、事故を未然に防ぐことができる。また、例えば仮想視点800の位置を自車両202の位置に重ねても良い。自車両202の位置または向きを表示される画像に反映するためには、自車両202の位置及び向きに関する情報を、図1の位置・向き出力部127から出力し、図1の受信制御部125経由で図1の幾何変換部124に伝える。
図8に示した仮想視点800から見た映像は、画像撮像送信装置110で撮像された画像データから、画像受信表示装置120において幾何変換処理によって作り出される。以下、図8の場合の幾何変換処理の例について図9、図10を用いて説明する。
FIG. 8 is a diagram illustrating an example of a method for visually recognizing a blind spot when the method of the second embodiment is used. The image pickup transmission device 110, the image reception display device 120, the own vehicle 202, the building (obstacle) 301, the building (obstacle) 302, the pedestrian 303, the other vehicle 304, and the traveling direction 305 of the own vehicle in FIG. This is the same as FIG. In the first embodiment, the virtual viewpoint 405 and the virtual mirror 406 in FIG. 4 are defined, and an image corresponding to the video viewed from the virtual viewpoint 405 is created by geometric transformation processing. In contrast, in the second embodiment, a virtual viewpoint 800 is defined near the intersection as shown in FIG. Assuming that the virtual viewpoint 800 is installed in a shape that looks down from the height to the ground, in the case of the second embodiment, an image of the viewpoint looking down from the sky with the virtual viewpoint 800 as the center of the screen is displayed. Create and display to the driver. At this time, geometrical transformation in the rotational direction is applied as necessary so that the traveling direction of the host vehicle 202 is in the upward direction of the displayed image. By displaying an image looking down from the sky, the driver can know in advance the situation around the intersection through live action, so accidents can be prevented. Further, for example, the position of the virtual viewpoint 800 may be superimposed on the position of the host vehicle 202. In order to reflect the position or orientation of the host vehicle 202 in the displayed image, information on the position and orientation of the host vehicle 202 is output from the position / orientation output unit 127 in FIG. 1, and the reception control unit 125 in FIG. The information is transmitted to the geometric conversion unit 124 in FIG.
The video viewed from the virtual viewpoint 800 illustrated in FIG. 8 is generated from the image data captured by the image capturing / transmitting device 110 by the geometric transformation process in the image receiving display device 120. Hereinafter, an example of the geometric transformation process in the case of FIG. 8 will be described with reference to FIGS.

図9は、図8の状況で撮像された、幾何変換前の画像の座標の例を示している。イメージセンサ部の出力画像範囲501は、図1のイメージセンサ部112から出力される画像の範囲を示している。本図の例では、光学系部111が魚眼レンズを含む構成となっており、図4の場合と同様に、画像撮像送信装置110が、信号機程度の高い位置で、光軸が鉛直下を向くように設置されている場合を想定している。図中の破線は、仮に地面の高さに東西、南北方向にメッシュ状の格子線が引かれていた場合に撮像される線を示しており、画像の歪みの程度を表している。光学系部111に魚眼レンズを使用しているので、図のように周辺部ほど画像が歪んでいる。本図の例の場合には、イメージセンサ部の出力画像501のX−Y軸は、それぞれ(+X)が北、(−X)が南、(+Y)が東、(−Y)が西の向きに合うように合わせてある。イメージセンサ部の出力画像範囲501のうち、図9の仮想視点の座標905を含む範囲を幾何変換処理の対象とする。   FIG. 9 shows an example of the coordinates of an image taken in the situation of FIG. 8 before geometric transformation. An output image range 501 of the image sensor unit indicates a range of an image output from the image sensor unit 112 of FIG. In the example of this figure, the optical system unit 111 is configured to include a fisheye lens, and as in the case of FIG. 4, the image capturing and transmitting apparatus 110 is arranged so that the optical axis is vertically downward at a position as high as a traffic light. Is assumed to be installed. A broken line in the figure indicates a line captured when a mesh-like grid line is drawn in the east-west and north-south direction on the ground level, and represents the degree of image distortion. Since a fisheye lens is used for the optical system 111, the image is distorted toward the periphery as shown in the figure. In the case of this example, the XY axes of the output image 501 of the image sensor unit are (+ X) north, (−X) south, (+ Y) east, (−Y) west, respectively. It is tailored to suit the direction. Of the output image range 501 of the image sensor unit, a range including the coordinates 905 of the virtual viewpoint in FIG.

図8の位置関係では、仮想視点800は、画像撮像送信装置110から見てやや北東の方角に位置している。幾何変換処理の対象となる範囲は、図9の画像データにおいて900で示される範囲(幾何変換処理範囲;図中に太線で示す)となる。ここで、幾何変換処理範囲900の四つの端点を、A2点901、B2点902、C2点903、D2点904とする。
図10は、図9の幾何変換処理範囲900内の画素が、幾何変換処理によって、図10の幾何変換処理範囲900に写像された場合の、幾何変換後の画像の座標の例を示す。図10では、座標はX3−Y3軸で表され、仮想視点の座標905を中央部として、仮想カメラの下方向が(+Y3)、上方向が(−Y3)、右方向が(+X3)、左方向が(−X3)と一致する。幾何変換処理範囲900と重なるようにして、表示部の出力画像範囲1000(図中に太い破線で示す)を定義する。
In the positional relationship of FIG. 8, the virtual viewpoint 800 is located slightly in the northeast direction when viewed from the image capturing / transmitting device 110. The range to be subjected to the geometric transformation process is a range indicated by 900 in the image data of FIG. 9 (geometric transformation processing range; indicated by a bold line in the figure). Here, it is assumed that the four end points of the geometric transformation processing range 900 are an A2 point 901, a B2 point 902, a C2 point 903, and a D2 point 904.
FIG. 10 shows an example of the coordinates of the image after geometric transformation when the pixels in the geometric transformation processing range 900 of FIG. 9 are mapped to the geometric transformation processing range 900 of FIG. 10 by the geometric transformation processing. In FIG. 10, the coordinates are represented by the X3-Y3 axes, the virtual viewpoint coordinate 905 is the center, the downward direction of the virtual camera is (+ Y3), the upward direction is (−Y3), the right direction is (+ X3), and the left The direction matches (−X3). An output image range 1000 (shown by a thick broken line in the figure) of the display unit is defined so as to overlap with the geometric transformation processing range 900.

図9のA2点901、B2点902、C2点903、D2点904は、図10のA2点901、B2点902、C2点903、D2点904に写像される。また、仮想視点の座標905は、幾何変換処理範囲900の中央部となる。
図11は、表示部の出力画像1100の例である。この画像は、図10のように表示部の出力画像範囲1000に写像された画素が、画像データとして図1の表示部126で表示された場合に写る映像の例を示している。このような仮想画像を自車両202のドライバーに表示することによって、死角の状況を、上空から撮像された画像として、ドライバーが予め確認することができるので、事故を未然に防ぐことができる。
A2 point 901, B2 point 902, C2 point 903, and D2 point 904 in FIG. 9 are mapped to A2 point 901, B2 point 902, C2 point 903, and D2 point 904 in FIG. The virtual viewpoint coordinate 905 is the central portion of the geometric transformation processing range 900.
FIG. 11 is an example of the output image 1100 of the display unit. This image shows an example of a video image that is displayed when pixels mapped in the output image range 1000 of the display unit as shown in FIG. 10 are displayed as image data on the display unit 126 of FIG. By displaying such a virtual image to the driver of the host vehicle 202, the driver can confirm the blind spot situation as an image captured from above, so that an accident can be prevented.

図9のイメージセンサ部の出力画像範囲501から、図10の表示部の出力画像範囲900へ写像する変換は、幾何変換部124において実施される。このような変換について、数式を用いて以下に説明する。
画像撮像送信装置110のイメージセンサ部112で撮像された画像データ上の座標を図9に示されるように(X,Y)、画像受信表示装置120の表示部126へ出力される画像データ上の座標を図10に示されるように(X3,Y3)とすると、幾何変換部124における幾何変換処理fall2は、f,f,f,fの4種類の幾何変換処理を総合した処理となっており、それらは(数式2)に示す関係となる。
(X3,Y3)=fall2(X,Y)=ffff(X,Y) ・・・(数式2)
ただし、
f;光学系部の光学特性によって生じた画像の歪みを補正して、歪みのない画像にする、もしくは歪みが軽減された画像にするための非線形変換処理。
f;画像撮像送信装置110の位置及び方向の変化によって生じる視点の移動及び回転を除去するための移動及び回転変換処理。
f;仮想視点800の位置、方向から見た映像に変換するための、移動及び回転変換処理。
f;透視投影変換処理または、平行投影変換処理。
A conversion for mapping from the output image range 501 of the image sensor unit in FIG. 9 to the output image range 900 of the display unit in FIG. 10 is performed in the geometric conversion unit 124. Such conversion will be described below using mathematical expressions.
As shown in FIG. 9 (X, Y), the coordinates on the image data captured by the image sensor unit 112 of the image capturing / transmitting device 110 are on the image data output to the display unit 126 of the image receiving display device 120. Assuming that the coordinates are (X3, Y3) as shown in FIG. 10, the geometric transformation processing f all2 in the geometric transformation unit 124 combines four types of geometric transformation processing of f 1 , f 2 , f 6 , and f 7 . These are the processes, and they have the relationship shown in (Formula 2).
(X3, Y3) = f all2 (X, Y) = f 7 f 6 f 2 f 1 (X, Y) (Formula 2)
However,
f 1 ; Non-linear conversion processing for correcting an image distortion caused by the optical characteristics of the optical system unit to obtain an image without distortion or an image with reduced distortion.
f 2 ; movement and rotation conversion processing for removing the movement and rotation of the viewpoint caused by the change in the position and direction of the image capturing and transmitting apparatus 110.
f 6 ; movement and rotation conversion processing for converting the video viewed from the position and direction of the virtual viewpoint 800.
f 7 ; perspective projection conversion processing or parallel projection conversion processing.

(数式2)の幾何変換処理のうちfとfは、表示したい視点の位置、向き、投影方法に係るので、図1の受信制御部125の内部で任意に指定することができる。一方でfとfは、画像撮像送信装置110の光学特性及び設置位置及び方向によって決定される項目である。幾何変換部124は、画像受信表示装置120に含まれているので、fとfに関しては、画像受信表示装置120内に存在する情報だけではパラメータ(変数)を確定させることができない。
そこで、本実施例においては、fとfの数式、もしくはそれらの数式を構成するパラメータに関して、撮像パラメータとして、画像撮像送信装置110から画像受信表示装置120へ無線伝送することを特徴としている。このようにすることで、幾何変換部124で実施する幾何変換処理の数式を確定させることができ、適切な歪補正処理を実施することができるようになる。そのため、ドライバーの死角に当たる部分の状況を、視認しやすい形で表示することができ、事故を防止することができる。
F 6 and f 7 of geometric transformation processing of (Equation 2), the position of the viewpoint to be displayed, orientation, since according to the projection method, can be arbitrarily designated within the reception controller 125 of FIG. On the other hand, f 1 and f 2 are items determined by the optical characteristics, the installation position, and the direction of the image capturing and transmitting apparatus 110. Geometric conversion unit 124, because it contains the image receiving display device 120, for f 1 and f 2, only the information present in the image receiving display device 120 can not be determined parameters (variables).
Therefore, the present embodiment is characterized in that the mathematical formulas of f 1 and f 2 or parameters constituting those mathematical formulas are wirelessly transmitted from the imaging imaging transmission device 110 to the image reception display device 120 as imaging parameters. . By doing so, the mathematical expression of the geometric transformation process performed by the geometric transformation unit 124 can be confirmed, and an appropriate distortion correction process can be performed. Therefore, the situation of the portion corresponding to the blind spot of the driver can be displayed in a form that is easy to visually recognize, and an accident can be prevented.

なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加、削除、置換をすることが可能である。
また、上記の各構成は、それらの一部又は全部が、ハードウェアで構成されても、プロセッサでプログラムが実行されることにより実現されるように構成されてもよい。また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。
In addition, this invention is not limited to an above-described Example, Various modifications are included. For example, the above-described embodiments have been described in detail for easy understanding of the present invention, and are not necessarily limited to those having all the configurations described. Further, a part of the configuration of one embodiment can be replaced with the configuration of another embodiment, and the configuration of another embodiment can be added to the configuration of one embodiment. Further, it is possible to add, delete, and replace other configurations for a part of the configuration of each embodiment.
In addition, each of the above-described configurations may be configured such that some or all of them are configured by hardware, or are implemented by executing a program by a processor. Further, the control lines and information lines indicate what is considered necessary for the explanation, and not all the control lines and information lines on the product are necessarily shown. Actually, it may be considered that almost all the components are connected to each other.

100:車両用画像送受信システム、110:画像撮像送信装置、111:光学系部、112:イメージセンサ部、113:送信画像処理部、114:信号処理部、115:画像圧縮部、116:送信制御部、117:送信部、118:位置・向き出力部、120:画像受信表示装置、121:受信部、122:受信画像処理部、123:画像復号部、124:幾何変換部、125:受信制御部、126:表示部、127:位置・向き出力部、200:支柱、201:信号機、202:自車両、301:ビル(障害物)、302:ビル(障害物)、303:歩行者、304:他車両、305:自車両の進行方向の信号、310:従来のカーブミラー、311:光軸、405:仮想視点、406:仮想ミラー、407:仮想光軸、501:イメージセンサ部の出力画像範囲、502:イメージセンサ部鉛直方向の座標、503:仮想視点の座標、504:幾何変換処理範囲、505:A点、506:B点、507:C点、508:D点、600:表示部の出力画像範囲、700:表示部の出力画像、900:幾何変換処理範囲、901:A2点、902:B2点、903:C2点、903:D2点、1000:表示部の出力画像範囲、1100:表示部の出力画像。   DESCRIPTION OF SYMBOLS 100: Image transmission / reception system for vehicles, 110: Image pick-up transmission apparatus, 111: Optical system part, 112: Image sensor part, 113: Transmission image processing part, 114: Signal processing part, 115: Image compression part, 116: Transmission control 117: Transmission unit 118: Position / orientation output unit 120: Image reception display device 121: Reception unit 122: Received image processing unit 123: Image decoding unit 124: Geometric transformation unit 125: Reception control Part: 126: display part, 127: position / orientation output part, 200: prop, 201: traffic light, 202: own vehicle, 301: building (obstacle), 302: building (obstacle), 303: pedestrian, 304 : Other vehicle, 305: Signal of traveling direction of own vehicle, 310: Conventional curve mirror, 311: Optical axis, 405: Virtual viewpoint, 406: Virtual mirror, 407: Virtual optical axis, 501: Image Output image range of the disensor unit, 502: vertical coordinate of the image sensor unit, 503: coordinate of the virtual viewpoint, 504: geometric transformation processing range, 505: point A, 506: point B, 507: point C, 508: point D , 600: Output image range of the display unit, 700: Output image of the display unit, 900: Geometric transformation processing range, 901: A2 point, 902: B2 point, 903: C2 point, 903: D2 point, 1000: Display unit Output image range, 1100: output image of the display unit.

Claims (8)

被写体を撮像して得た画像の画像データと、当該画像が撮像された際の状況を示す撮像パラメータを受信して、前記画像データに基づく画像を表示する画像受信表示装置であって、
前記画像データと前記撮像パラメータとを受信する受信部と、
当該受信部が受信した画像データを供給され、当該画像データに対し幾何変換を含む画像処理を施して出力する幾何変換部と、
当該幾何変換部が出力した画像データに基づく画像を表示する表示部と、
前記受信部が受信した撮像パラメータを供給され、当該撮像パラメータに基づき前記幾何変換を含む画像処理を行うよう前記画像処理部を制御する受信制御部と
を有することを特徴とする画像受信表示装置。
An image reception display device that receives image data of an image obtained by imaging a subject and an imaging parameter indicating a situation when the image is captured, and displays an image based on the image data,
A receiving unit for receiving the image data and the imaging parameters;
A geometric transformation unit that is supplied with the image data received by the receiving unit, performs image processing including geometric transformation on the image data, and outputs the processed image data;
A display unit for displaying an image based on the image data output by the geometric conversion unit;
An image reception display device comprising: a reception control unit that is supplied with imaging parameters received by the reception unit and controls the image processing unit to perform image processing including the geometric transformation based on the imaging parameters.
請求項1に記載の画像受信表示装置において、
当該画像受信装置は移動体に搭載される画像受信装置であり、前記受信部は前記画像データと前記撮像パラメータとを無線通信路を介して受信することを特徴とする画像受信表示装置。
The image reception display device according to claim 1,
The image receiving apparatus is an image receiving apparatus mounted on a moving body, and the receiving unit receives the image data and the imaging parameter via a wireless communication path.
請求項1に記載の画像受信表示装置において、
前記撮像パラメータは、前記受信部が受信した画像データが有する光学的な画像の歪みを表す情報を含んでおり、
前記受信制御部は、当該情報に基づき、前記幾何変換部を制御することを特徴とする画像受信表示装置。
The image reception display device according to claim 1,
The imaging parameter includes information representing optical image distortion of the image data received by the receiving unit,
The image reception display device, wherein the reception control unit controls the geometric conversion unit based on the information.
請求項1に記載の画像受信表示装置において、
前記撮像パラメータは、前記画像データが撮像された際の位置と方向に係る情報を含んでおり、
前記受信制御部は、当該情報に基づき、前記幾何変換部を制御することを特徴とする画像受信表示装置。
The image reception display device according to claim 1,
The imaging parameter includes information related to a position and a direction when the image data is captured,
The image reception display device, wherein the reception control unit controls the geometric conversion unit based on the information.
請求項4に記載の画像受信表示装置において、
当該画像受信表示装置自身の位置と方向に係る情報を検出して出力する、位置と方向の出力部を備え、
前記受信制御部は、前記画像データが撮像された際の位置と方向に係る情報と、前記画像受信表示装置が備える位置と方向の出力部から出力された位置と方向の情報との双方の情報に基づき、前記幾何変換部を制御することを特徴とする画像受信表示装置。
The image reception display device according to claim 4,
A position and direction output unit that detects and outputs information related to the position and direction of the image reception display device itself,
The reception control unit includes information on both the position and direction information when the image data is captured, and the position and direction information output from the position and direction output unit of the image reception display device. The image receiving and displaying apparatus characterized by controlling the geometric conversion unit based on the above.
請求項5に記載の画像受信表示装置において、
前記受信制御部は、前記受信部が受信した画像データを、前記画像受信装置の位置とは異なる位置の仮想視点より前記画像受信装置の位置とは異なる位置に仮想的に設けられた仮想ミラーを見た場合の画像データに変換するよう、前記幾何変換部を制御することを特徴とする画像受信表示装置。
The image reception display device according to claim 5,
The reception control unit includes a virtual mirror provided for the image data received by the receiving unit from a virtual viewpoint at a position different from the position of the image receiving apparatus, at a position different from the position of the image receiving apparatus. An image receiving and displaying apparatus, wherein the geometric conversion unit is controlled to convert into image data when viewed.
請求項5に記載の画像受信表示装置において、
前記受信制御部は、前記受信部が受信した画像データを、前記画像受信装置の位置とは異なる位置の仮想視点より地上の方向を見下ろした場合の画像データに変換するよう、前記幾何変換部を制御することを特徴とする画像受信表示装置。
The image reception display device according to claim 5,
The receiving control unit is configured to convert the image data received by the receiving unit into image data when looking down from the virtual viewpoint at a position different from the position of the image receiving device into the ground direction. An image receiving display device characterized by controlling.
請求項1に記載の画像受信装置と、
被写体を撮像して得た画像の画像データを生成し、当該画像が撮像された際の状況を示す撮像パラメータを生成して、前記画像受信装置へ送信する画像撮像送信装置と
を有する画像送受信システムであって、
前記画像撮像送信装置は、
前記被写体を撮像して得た画像の画像信号と、当該画像を撮像した際の光学的な状況に係る情報とを出力する撮像部と、
当該撮像部が出力した画像信号を処理して、送信する画像データを出力する送信画像処理部と、
前記撮像送信装置自身の位置と方向に係る情報を検出して出力する、位置と方向の出力部と、
前記光学的な状況に係る情報と前記位置と方向に係る情報とが供給され、双方を前記撮像パラメータとして出力する送信制御部と、
前記送信画像処理部が出力した画像データと、前記送信制御部が出力した撮像パラメータとが供給され、双方を前記画像受信装置へ送信する送信部と
を有することを特徴とする画像送受信システム。
An image receiving device according to claim 1;
An image transmission / reception system comprising: an image imaging transmission device that generates image data of an image obtained by imaging a subject, generates imaging parameters indicating a situation when the image is captured, and transmits the imaging parameters to the image reception device Because
The image capturing and transmitting apparatus is
An imaging unit that outputs an image signal of an image obtained by imaging the subject, and information relating to an optical situation when the image is captured;
A transmission image processing unit that processes image signals output by the imaging unit and outputs image data to be transmitted;
A position and direction output unit for detecting and outputting information related to the position and direction of the imaging transmission device itself;
Information relating to the optical situation and information relating to the position and direction are supplied, and a transmission control unit that outputs both as the imaging parameters;
An image transmission / reception system comprising: a transmission unit which is supplied with image data output from the transmission image processing unit and imaging parameters output from the transmission control unit and transmits both to the image reception device.
JP2012070059A 2012-03-26 2012-03-26 Image reception and display device, and image transmission and reception system Pending JP2013201707A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012070059A JP2013201707A (en) 2012-03-26 2012-03-26 Image reception and display device, and image transmission and reception system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012070059A JP2013201707A (en) 2012-03-26 2012-03-26 Image reception and display device, and image transmission and reception system

Publications (1)

Publication Number Publication Date
JP2013201707A true JP2013201707A (en) 2013-10-03

Family

ID=49521569

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012070059A Pending JP2013201707A (en) 2012-03-26 2012-03-26 Image reception and display device, and image transmission and reception system

Country Status (1)

Country Link
JP (1) JP2013201707A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114207691A (en) * 2019-07-30 2022-03-18 三菱电机株式会社 Vehicle driving support system, station-side driving support device, and vehicle-mounted driving support device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114207691A (en) * 2019-07-30 2022-03-18 三菱电机株式会社 Vehicle driving support system, station-side driving support device, and vehicle-mounted driving support device
CN114207691B (en) * 2019-07-30 2024-04-26 三菱电机株式会社 Vehicle driving support system, station-side driving support device, and vehicle-mounted driving support device

Similar Documents

Publication Publication Date Title
JP7047767B2 (en) Image processing equipment and image processing method
JP5444338B2 (en) Vehicle perimeter monitoring device
US8305204B2 (en) Vehicle surrounding confirmation apparatus
JP4892965B2 (en) Moving object determination system, moving object determination method, and computer program
EP3606057B1 (en) Image processing device and image processing method
JP2005311868A (en) Vehicle periphery visually recognizing apparatus
CN111273765B (en) Vehicle display control device, vehicle display control method, and storage medium
JP5516998B2 (en) Image generation device
JP6471522B2 (en) Camera parameter adjustment device
JP6586849B2 (en) Information display device and information display method
WO2010070920A1 (en) Device for generating image of surroundings of vehicle
JP7283059B2 (en) Perimeter monitoring device
WO2015129280A1 (en) Image processing device and image processing method
JP2011049735A (en) Vehicle periphery image providing device
KR101657673B1 (en) Apparatus and method for generating panorama view
JP2013200820A (en) Image transmitting and receiving system
WO2019034916A1 (en) System and method for presentation and control of virtual camera image for a vehicle
JP2010183234A (en) Drawing apparatus
KR20160034681A (en) Environment monitoring apparatus and method for vehicle
JP2013200819A (en) Image receiving and displaying device
JP2013201707A (en) Image reception and display device, and image transmission and reception system
JP7467402B2 (en) IMAGE PROCESSING SYSTEM, MOBILE DEVICE, IMAGE PROCESSING METHOD, AND COMPUTER PROGRAM
JP6439233B2 (en) Image display apparatus for vehicle and image processing method
JP2014089620A (en) Image transmission/reception system
JP2023046965A (en) Image processing system, moving device, image processing method, and computer program

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20140908